Webページリンク抽出ツール(アルファ版)
Webページから主にリンクについての情報を抜き出します。現在はまだ抜き出すだけです。
まだアルファ版(開発版)のため、いきなりデータが消えたり、途中で止まることもあります。
テストも甘いので反映されないデータ・誤ったデータなどもある可能性があります。
運用フェーズを意識して作成したツールです。本番公開後に「ちょっと試してみるか」という気持ちで使用してみてください。
AIエージェントのプロプトへの入力を考えるのすら面倒くさい人向けです。
ログイン機能実装後は、Basic認証やファイルのアーカイブ、抽出したURLへのアクセス機能なども実装する予定です。
要確認ドメインの一覧に記載のドメインを検知できます。
条件入力
使い方
「URLリスト」に対象のURLを記入してください。改行区切りで複数のURLを記入可能です。
エラーがなければ「送信する」ボタンを押してリクエストを送信できます。
完了したら、「結果一覧」のプルダウンで参照できるようになります。
- ※主要コンテンツの情報は無視します。あくまでもページのメタ情報やコンテンツの断片(リンクなど)の走査を目的としています。
ただし、ログイン機能実装後は、所有権を確認できたサイトについてはスクショやアーカイブなども実装する予定です。 - ※ページの読み込み完了後に走査します。そのため、クリックなどユーザーのアクションをトリガーにして発生するネットワークアクセスなどは検知できません。
- ※リクエスト毎に約3分のインターバルを設けているため、連続投稿はできません。
- ※入力できるURLには制限を加えています。以下、一例です。
- ・Basic認証は使用できません(URLへの埋め込みも不可能です)
- ・記入したURLでアクセスした際、同じドメインと思われるURLのみ読み込まれます。
そのため、例えば、アクセス解析のファイルなどドメインが異なるファイルへのアクセスは418エラーが返されます。
また、同じドメインか否かの判定に使用されるドメインの推定値は、取得した結果の「ドメインの推定値」に記載されます。
- ・
入力フォーム
送信結果
未リクエストです
処理状況
結果一覧
リクエストURL一覧
参照するリクエストIDが未選択です
ページ一覧
参照するリクエストIDが未選択です