【SEOツール5選】SEOコンサルが使うツール
Summary
TLDRこの動画では、SEOコンサルタントが約10年以上の経験を活かし、プロが実際に使っているSEOツール5つを紹介しています。ナマ.スAというExcelとの連携ツールから始め、キーワード分析、ランキング調査、ウェブサイトの過去のHTML取得、リンク分析など、様々な機能を持つツールを紹介。さらに、AWSのRDSやGPT4ターボなど、データベース分析やAIを活用したツールも紹介。最後にプロランクトラッカーを使った検索結果の可視化を例に、SEO分析におけるツールの活用方法を解説しています。
Takeaways
- 😀 SEOコンサルタントが約10年以上働いた経験から、プロが使うニッチなSEOツール5つを紹介している。
- 🔍 1つ目のツールはnamas.Aで、Excel上でChatGPTを利用してキーワード制作やカテゴライズが可能だ。
- 📊 2つ目のツールはキーワードマップで、検索結果の上位50位のURLやドメイン情報を一括取得できる。
- 📈 3つ目のツールはHで、ペイジインスペクトなどの新機能を活用して過去のHTMLを取得し、ページの変更点を分析できる。
- 🔗 4つ目のツールはリンクインターセクトで、競合サイトと自分のサイトのリンク差を発見し、非リンク獲得の可能性を探ることができる。
- 🖥️ 5つ目のツールはネットピークチェッカーで、URLリストを検査し、オンページ要素やユーザービヘイビアデータを取得することができる。
- 🛠️ AWSのRDSを利用して大量のデータを分析し、Excelでできない複雑な集計やデータの結合を行う。
- 🚀 GPT4のターボを使用して、より多くのトークンを処理し、大量のデータ分析を行う。
- 📊 プロランクトラッカーを使用して、検索結果上位50位のURLの過去のデータを表示し、アルゴリズムの変化を迅速に把握する。
- 🛑 不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認など、ネットピークチェッカーを使って様々なSEO分析を行う。
- 🔧 SEO分析では、プロが使用するツールは社内ツールも社外ツールも多岐に渡り、柔軟な対応が重要であると示唆されている。
Q & A
質問1: 今回紹介されるSEOツールは何について特に焦点を当てていますか?
-今回紹介されるSEOツールは、プロが使うニッチなツールに焦点を当てています。
質問2: 最初に紹介されたツール「Nam.A」はどのような機能を持っていますか?
-Nam.AはExcelでChatGPTを利用できるツールで、キーワード制作やカテゴライズ、タイトルやディスクリプションの作成が簡単にできます。
質問3: 「Nam.A」の具体的な使い方の一例を教えてください。
-キーワードに基づいたブログ向けのタイトルを作成するために、Excelに専用関数「Nam.A」を入力し、プロンプトとして「与えるキーワードに関するブログ向けのタイトル部分を日本語で書いてください」と入力します。
質問4: Nam.Aのメリットとデメリットは何ですか?
-メリットは、Excelを通じてChatGPTを簡単に利用できることです。デメリットは、プロンプトが短いため精度を上げづらい点です。
質問5: 二つ目に紹介されたツール「キーワードマップ」はどのような機能を提供しますか?
-キーワードマップは入力したキーワードの検索結果から1位から50位のURLやドメインを取得し、データ分析やキーワード選定を支援します。
質問6: キーワードマップの「検索市場レポート」の主な機能は何ですか?
-検索市場レポートは、入力したキーワードの1位を取っているドメインと獲得数をグラフで表示し、CSVでダウンロード可能です。
質問7: 三つ目に紹介されたツール「H」の新機能は何ですか?
-Hの新機能「ペイジインスペクト」は、過去のHTMLも取得し、過去と現在の変更点を視覚的に比較することができます。
質問8: Hの「クイックバッチアナリシス」は何に役立ちますか?
-URLを最大200個まで一括で入力し、SEO指標を簡単に取得することで、上位表示する要素の分析ができます。
質問9: 四つ目のツール「ネットピークチェッカー」はどのように利用されますか?
-ネットピークチェッカーは、調査したいURLを入力してステータスコードやタイトル文などのデータをクローリングして取得します。
質問10: ネットピークチェッカーの具体的な活用例を教えてください。
-不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認などに活用されます。
Outlines
🤖 SEOツールの紹介とナマ.スAの活用方法
第1段落では、SEOコンサルタントが10年以上経験を活かして、プロが使用するSEOツールについて語ります。特にナマ.スAというツールを紹介し、ExcelKを通じてチャットGPTを利用することで、キーワード制作やカテゴライズ、タイトルやディスクリプションの作成が可能であると説明します。ナマ.スAIをインストールすると、Excelにアドインがセットされ、プロンプトを通じてGPTを利用できる利点を強調しています。
🔍 検索市場レポートを使った上位サイトの分析
第2段落では、検索市場レポートというSEOツールを使い、入力したキーワードの検索結果上位50位までのURLを一括取得し、上位サイトの調査やキーワード領域の分析を行う方法を解説します。CSVダウンロード機能を使ってピボットテーブルを作成し、強いサイトや伸びてくるサイトの発見が可能になる点を紹介しています。また、特定のサイトを詳細分析し、階層ごとのデータを持つことの重要性を説明しています。
🛠️ H1ツールの新機能紹介とSEO分析手法
第3段落では、H1ツールのペイジインスペクトやクイックバッチアナリシス、リンクインターセクトなどの機能を紹介し、それらを使ってのSEO分析手法について説明します。過去のHTMLの取得や非リンク獲得プロジェクトの活用、上位表示要素の分析方法などを具体的に紹介しています。
🕵️♂️ ネットピークチェッカーの機能とケーススタディー
第4段落では、ネットピークチェッカーというWindowsデスクトップアプリケーションの機能を紹介し、不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認などのケーススタディーを通じて、その活用方法を説明しています。ネットピークを使っての検査項目の取得や分析手法について詳細に語っています。
Mindmap
Keywords
💡SEOツール
💡プロが使うSEOツール
💡namas.A
💡キーワード
💡検索市場レポート
💡CSVダウンロード
💡ヒートマップ
💡リンク分析
💡ウェブクローラー
💡ユーザービヘイビアー
💡Googleアルゴリズム
💡プロランクトラッカー
💡AWS RDS
💡GPT-4ターボ
Highlights
プロが使うSEOツール5選を紹介
ナマスAI: ChatGPTをExcelで使うツール
キーワードの生成や分類、競合分析が簡単にできる
キーワードマップ: トータル的なSEOツール
検索市場レポートで上位サイトの調査と分析が可能
CSVダウンロードで詳細なデータ分析が可能
ピボットテーブルで強いサイトと弱いサイトを分析
過去のHTMLも取得可能なPage Inspect機能
クイックバッチアナリシスで大量のURLを一括分析
リンクインターセクトで非リンク獲得プロジェクトに使える
ネットピークチェッカーでURLのクローリングと検査
不要ページの洗い出しやGoogleアルゴリズムの調査に役立つ
リンク否認の効率化も可能
番外編: AWSのRDSを使った大量データの分析
GPT-4ターボでの大量データ分析
プロランクトラッカーで検索順位ツールとしての利用
コアルゴリズムの調査に使えるフルサースの可視化ツール
新しいSEOツールや機能の実用的な使い方を紹介
Transcripts
どうもタルですさあ今回はプロが使う
SEOツール5戦これについてお話して
いきたいと思います私なんですけども
SEOコンサルタントして約10年以上
働いていますでよくSEOツールと言い
ますとMicrosoftクラリティとか
スクリーミンフロックSEMラシとか
Googleアナリティクスやサーチ
コンソールまそういったツールがよく
やれると思うんですけどもおそらく皆さん
それご存知かと思うので今回はそうじゃ
なくてプロが使う結構ニッチなツル
5000お話していきたいと思いますまず
1つ目namas.Aですねこれ何かと
言うとChatGPTをExcelKで
使うことができるまそういったツールに
なりますExcelKでチャットGPTを
使えると何がいいかというとキーワードを
制作したりキーワードをカテゴライズし
たりサープの競合別をつけたりタイトルや
ディスクリプションをざっと作ることが
できるまそういったメリットがあるんです
ねこのナナスのAIをインストールして
いただくとExcelにこういったアドが
セットされますこれを使ってですね
Excelからチャットgpdを使ってみ
たいと思います今回はですねキーワード
からタイトル分を作ってみるまそんな関数
を作ってみたいと思いますまずキーワード
を用意しましたここにですねNam.Aの
専用関数Nam.Aこれを入力します
そしてプロンプトを入力するんですけども
今回のプロンプトはこちら与えるキー
ワードに関するブロッキ向けのタイトル
部分を日本語で書いてくださいこういう
プロフトを入力してキーワードが入ってる
セルをセットしますそうするとこんな形で
Excel経由でチャットGPTを使う
ことができるんですよねでは実際に生成さ
れたタイトル分を見てみたいと思います
まず最初キーワードはNISAとはこの
キーワードに対してタイトル分はNISA
とは何か初めての投資におすすめの制度
まあ使えそうなタイトル分ですね他のキー
ワードNISAおすすめ銘柄このキー
ワードに対するタイトル分はNISAで
賢く投資おすすめの銘柄を厳選して紹介
こんな形ですねタイトルをざっと生成する
ことができるこれもExcelを通して
チャGPTを呼び出せる1つのメリット
じゃないかなと思いますではもう1つの
使い方キーワードをDoNoGOby
クエリに分けるってやり方ですね実際入力
者関数はいつも通りNum.Aなんです
けども入力者プロンプトはこんな形ですね
キーワード対象となるセルのSEO
カテゴリーDoNoGObyはどれに
当たりますか行為プロンプとを入力しまし
たそうするとdoNoGObyが入力さ
れるんですよねじゃ実際に制度を見ていき
たいと思いますまずこの2つのキーワード
NISAとはNISA成長投資枠とはこの
キーワードに関してはノークエリって入っ
てんですねま確かに正しそうですね他にも
こちらNISA積み立て投資枠NISAお
すめこれに対してはバイクエリになってる
ですこれも正しそうですね他にもこちら
NISAシミュレーションこれもノー
クエリーですしNISA口座変更これも5
クエリーなんですね確かにこれだけ見ると
正しくクエリータイプが分けられてるよう
に見えますなのでこんな形でExcel
からチャトGTPを呼び出してカテゴリー
付けしたりとかクエリータイプを分けたり
まそんなことができるのがこのツールの
メリットかなと思いますただデメリットも
あってですねやっぱりプロンプ度が短いん
ですよねですから精度ってのは上げづらい
かなと思いますとはいえ精度を上げたいん
だったら専用のデータベースとAPIと
そしてバッチを組んだ方が早いんですよね
なので精度をすごく極めたいんだったら別
のツールを使うべきなですけどもやっぱり
このnamin.AIのメリット何かと
言うとサクっとチャットGPTなどを
Excelを通して使えるってのが
メリットなので簡単な分析をサクっと
終わらせたいでも毎回APIを組み上げる
の面倒くさいなっていった場合はトAIは
おすすめのツールじゃないかなと思います
では2つ目のツールですねキーワード
マップになりますキーワードマップはです
ねトータル的なSEOツールなんですけど
も特に私がSEOコンサルタントしてよく
使うツールがこちら検索市場レポートです
ねこれ何かと言うと入力したキーバードの
検索結果に出てくる1位から50位の
URLやドメインを全て一括で取得する
ことができるんですねねなおかつこんな形
でCSVでもダウンロードすることができ
ますこのデータを使っていただければどう
いうキーワードにおいてどういう上位
サイトがいるのかっていったような上位
サイトの調査だったりキーワード領域に
よってどのサイトが強いのかどのサイトが
弱いのかまそういったキーワード領域の
分析もできたりそこからキーワードの選定
をデータを用いて行うことができるように
なりますじゃ実際に使ってみましょうまず
ツールでですねキーワードを入力します
これ1回にですね3000キーワードまで
最大入力することができますそして対象に
なるデバイスと地域を選んでデータの取得
を押しますそうするとこんな形でデータの
取得が始まります時間なんですけども約
3000キーワードで10分から15分で
取得が終わるのでかなり時短しながら
データしとしていただくんじゃないかなと
思います取得が終わりますとこういった
結果画面が出てきますまず最初見て
いただきたいのはこちらのグラフなんです
けども入力したキーワードの1位を取って
いるドメインと1位の獲得数を表した
グラフなんですね今回入力したキーバード
はクレジットカード関連のキーバード
3000公を入力しましたこれらキー
バードで1位取ってるサイトっていうのは
smbccard.comだったりJCB
.co.jpだったりsezonCard
.co.jpこういった7たる公式サイト
が1をってるってのは分かりますこんな形
で入力したキーワードの1位のサイトって
いうのはまず簡単に分析することができる
んですねただこの機能の1番の使いどころ
は検索結果サフスのデータを一括でCSV
でダウンロードするところにありますなで
こうカチっと押していただくとCSVで
ダウウンロードできますこのCSVを
ダウンロードした後によくこんな形で
ピボットを組むんですよねこのピボトって
いうのは左側にドメイン上に1位から10
位順位をつけてそしてその順位にヒット
するキーワード数をこんな形でクロス集計
していますこのクロス集計を見るだけでも
今回入力したキーワードクレジットカード
関連で1位を最もを取ってるサイトはどう
いうサイトなのか1位から5位にヒットし
てるサイトはどういうサイトなのか逆に
10位以降のサイトはどういうサイトなの
かそういった形でデータを全体的に見
ながら強いサイトと今伸びてきてるサイト
もしくは落ちめにあなサイトっていうのを
発見することができますまたキーワード
ごとにカテゴリーAカテゴリーBをつけ
ながら分析をすると実はカテゴリーAで
強いサイトはカテゴリーBでは強くなかっ
たり逆にカテゴリーBで強いサイトは
カテゴリーAでも今上がってきてるこんな
形でカテゴリーごとでも強いサイトって
いうのを発見することができるんじゃない
かなと思いますさらにですねこのCSV
URLも入ってるんですけどもスラッシュ
ごとに区切リ位置で分けることによって
こんな形で回送ごとのデータってのも横に
つつけることができますこのデータがある
と特定のサイトにおいてどの階層どの
ディレクトリーが強いかっていうそういっ
た詳細分析もできるんですね例えば今回
こちらmybest.COMさんを分析さ
せていただいたんですけども私が入力した
クレジットカード関連の3000個のキー
バードのうちmybest.COMさん1
位から10位の獲得キーバード数ってのは
実は372個ありましたじゃあこれどう
いうページがどういうディレクトリーが
獲得してるのかってところでまず第1
ディレクトリーを入力してますそうすると
こんな形でですねざーっと第一
ディレクトリーごとの1位から10位の
格闘キーワード数が出てきましたよく皆
さんが目にするマベさんのサイトのURL
っておそらくこんな形じゃないかなと思い
ますドメインがあってそして記事の番号が
あるこういった形のURLがほとんどなん
ですけども実は今回私が分析してみた
データを見ると確かに記事URLが第1
ディレクトリに来るページもあるんですが
それとは別に第1ディレクトリーには
アーティクルズが入ったページっていうの
が実は最も獲得キーワード数が多いっての
があったんですねじゃあこの第1
ディレクトリーがアーティクルズ配管には
どういうページがあるのかってことで今度
第2ディレクトリー入れるとこんな形で第
2ディレクトリーごとの格闘キーワード数
ってのが分かってくるんです例えば1番上
のもの見てみるとスラアーティクルズスラ
110この記事が獲得キーワード数13個
っての分かりましたじゃあこれどういう
ページなのかどういうキーワードを獲得し
てるのかそれを分析するべくこのピボット
のところをカチカチとクリックしますそう
するとこのページだけが獲得してるキー
ワードがずらっと並んでるんですね実際に
このアーティクルズ110番のページが
獲得してる記見るとクレジットカード1日
億で信用情報とかクレジットカード支払い
遅で数日と支払いバスでこういった遅延に
関するキーワードドってのが出てるんです
よねこれってもしかしたら収益系のキー
ワードじゃなくどちらかていうとノー
クエリーのキーワードだと思うんです
こんな形ですね実はマイベストさんよく
ランキングとかおすめって言ったような
収益系が強いようなイメージあるんです
けどもその収益ページとは別に潜在層向け
のキーワードもちゃんと対策していてそれ
をアーティクルズ配下で対策してるって
言ったような潜在向けのページが作って
るってのも分かったんですつまりトップ
ページの下によく私ともが見る数字がある
顕在層向けのページとは別に
アーティクルズすら数字記事番号がある
潜在層向けのノークエリを対策するページ
も実は用意しているそしてこのノークエリ
のページから順位上昇を最も図りたい顕在
層向けのページに内部リンクを集約させて
いるこういった構造があるっていうのが
データから見て分かったんですねこんな形
でいつも自分たちが競合を見ているページ
とは別に他のキーバードも獲得していて
そしてこんな形でトピクラスターを作っ
てるんだよこういったことをデータを使え
ば実は見落としたところも発見することが
できるんです今回はあくまでも私が勝手に
ですねマイベトさんのケースを分析しまし
たが他のサイトを見てみると実はこういう
ところでこういうクエリーを作っていって
トピックラスター内部リクを構築していた
こういったことがデータから発見すること
ができますまた他の使い方とはこちら
CSVにキーワードの種別DoNo5by
をつけていただくことによってこんな形で
DoNo5倍ごとにどのドメインが獲得し
てるかっていうのも分かるんですねなので
あるサイトは実ノークエリーには非常に
強いんだけども意外にバイクエリーには
弱かったそういったことも分かるのでどの
サイトをちゃんとベンチマークすればいい
のかそこもキーバードの種別とPIVOT
を使っていただければうまく分析できるん
じゃないかなと思いますこのよりですね
検索市場レポートのデータを使って
いただければ今が伸び始めてきている新規
サイト発見したりとかあとは各サイトの
ページの戦略がかかってきたりまたまた
強いサイトが参入していないでも実は結構
狙い目のキーワードつまり空いているキー
ワードを分析することもできるんですね
その他にもサースデータを使って
いただければキーワードごとに
グルーピングもしていただくこともでき
ますこんな形でSEO分析ができるデータ
を簡単に取得できるのがこの検索市場
レポートになりますんでこれよく使ってる
ツールとして2つ目に上げさせていただき
ましたでは3つ目ですねそれがHです
こちらになりますま皆さんもよく使われ
てるツールだと思うんですけどもこちらの
ツール実はつい最近新しい機能が出てまし
てそれはこちらペイジインスペクトですね
これ何かと言うとこんな形で対象となる
URLのHTMLってのが見れるんですさ
にHTML見れるんだったらそれツール
使う必要性ないよねと思らると思うんです
が1番のポイントはこちら過去のHTML
も取得することができるんですね例えば
こちら1年前のページと同じURLの今日
の時点のURLこんな形で比較することが
できるんです以前過去のページを見てる時
は私ウバックマシンを使っていたんです
けどもウバックマシンっていうのは過去の
ページは見れるものの今のページと過去の
ページ何が変わったのかっていうこの比較
っていうのは自分の目で行う必要があった
んですHSの新機能を使っていただければ
過去あったもので今消えてしまったものは
赤く表示されますし新たに追加された
ところは緑色で表示されるんですねこんな
形で何が変わったのかを資格的にも簡単に
把握していただくことができるので例えば
あるサイトが急に上がってきた場合その
サイト何を変更したのか何をリライトした
のかそういったことを分析する際はこの
機能を使っていたりしますまた他の機能
クイックバッチアナリシスこれもよく私
使っていたりしますこれ何かと言うと
URLを最大200個まで1括で入力し
そしてhtxの指数を簡単に取得すること
ができるそういった機能なんですね例えば
この機能を使っていただければ非常に簡易
的にはなるんですけども上位表示する要素
の分析もすることができます例えばこちら
キーワードツールで検索するといろんな
サイトがずらっと並んでるんですね私の
サイトは結構下にいるのでんで上がらない
のかなところで1位から10位のURLを
こんな形で入力して分析ってボタンを
カチッと押しますそうすると今上位にる
サイトのhdxの指標っってのが簡単に1
回せ取得できるんです実際に見てみると
キリクに大きな差があるっていうのも
分かりました例えばこちらサービスサイド
のトプページに関しては割と非リンク多め
に取ってるってのは分かるんですけども逆
に2以降の記事ページに関してはこの記事
ページ単体では非リンクは取ってなくて
どちらかと言うと記事メディアのサイト
全体のテーマ性だったりドメインの評価で
取ってるってことがこっからは推測され
ますこんな形ですね上位サイトがどういっ
たポイントで上位表示してるのかそれを
すごく簡易的でありますけどもまずサクっ
と把握していただく時に私を使っていたり
しますでもう1つ使える機能としては
こちらリンクインターセクトバイレクサス
のサイトには非リンクしていないこういっ
たサイトを発見することができるんですね
このサイトを発見すれば非リンク獲得
プロジェクトにける企画や設計そういった
時に使えるんじゃないかなと思います実際
に使っていきましょう例えば競合サイト
キーワードツールさんとか入れていただい
てそして私のサイトゲットキーワードを
入れてみますそうすると私のサイトには非
リンクしてないんだけども競合のサイトに
は非リンクしてるそういったサイトを発見
することができるんですね実際にその結果
こちらになりますWixさんのサイトなん
ですけども競合サイトには非リンクしてる
んですが私のGet
からですねどういうライターさんが書い
てるのかライターさんへのアプローチ方法
はどうすればいいのかこのライターさんが
興味関心を持つコンテンツテーマは何なの
かそこからキリンク獲得リンクアーニング
の試作っていうのを検討していただくこと
ができるんじゃないかなと思いますリンク
アーニングに関してはこちらの別の動画で
も説明していますのでこちらも合てご覧
いただければと思いますここまでがHTの
ご紹介になりました次4つ目のおすめ
ツールですねそれがこちらネットピーク
チェッカーになりますこれはですね
Windowsのデスクトップ
アプリケーションなんですけどもUR
リストを検査するためのクローラー
サービスになります実際に調査したい
URLを入力してどういう項目を調査した
かこれをポチポチと入力すると調査したい
項目のデータっていうのをクローリングし
て取得してくれるんですね例えばこちら
オンページという項目にはステータス
コード202なのか404なのか503な
のかまそういったステータスコードを取得
してくれますしあとはURLのタイトル文
だったりとかカノニカルがあるのかとか
リダイレクト先URLはどこなのかこう
いったデータを取得することができます
またシミラーwebという項目においては
URLドメインのPV数だったり直記率や
自然検索経由の流入数などまそういった
ユーザービヘイビアーのデータだったりと
かどの流理元からどれぐらいの入を取っ
てるのかまそういったデータを取得する
ことができますまたGooglesurp
というカテゴリーにおいてはそのURLが
インデックスされてるかされてないかって
いうところのチェックだったりタイトル分
を取得することはできます他にも様々な
項目があるので今自分が用意している調査
したURリストでどのデータを取得した
いいのかそれを指定すれば簡単にデータ
取得することができますそうすることに
よってあらゆる検査っていうのを行うこと
ができるんですねとはいえですねここまで
お話でなんかいろんなデータを取るの
分かったけどもじゃどういう風な使い方が
あるのっていう風にですね疑問に思われる
方もいらっしゃると思うので実際にその
ケーススタディーってのを話していきたい
と思いますまずケース1は不要ページの
洗い出しですね特に使うシーンとしては
大型データベース型サイトの
コンサルティングをする際この時にはよく
このネットピークを使ったりしますといい
ますのも大型のデータベースサイトに
おけるSEOってやっぱりクローラリティ
すごく重要になってくるんですよね持って
いってしまうとインデックスコントローラ
がとても重要になってくるんです割と大型
のデータベース型サイトって結構運用歴が
長いサイトが多いので運用歴が長いと
すごく昔に作った古いページだったり本来
インデックスさせるべきでないページが
大量に残っていたりそういうケースがある
んです例えば最近多いケースですとAPI
が出力しているJンファイルが
インデックスされていたりとかあとは過去
作っていたページが残っているんだけども
そのページがフロントで読み込んでる
APIが終了していてもう何も表示されて
いないそういった空白のページがあったり
こういった形で運用歴は長くて大型で
データベースサイドほどページとして機能
していないものはたくさん残骸として残っ
てるケースっての意外とあるんですねそう
いったページがインデックスされてしまっ
て定品コンテンツがインデックスを占有し
てしまってるケースだったりあとは不要な
クロールの回遊を生んでしまったり
またまたクロールの回遊を下げてしまう
ようなそういったページの要因になってる
ことも多くあるんですなのでこういった
不要となるペどこにあるのかそれらを
洗い出す必要があるんですその時にネット
ピークを使えるって形ですねとはいえここ
で疑問になるのはURリストどうやって
用意すればいいのって思われるかと思い
ますこれスクリーミングフロックだったり
とかあとはネットピークスパイダーと言わ
れるようないわゆるこういったクロール型
のサービスではなかなか発見することが
できないんですこういったクロール型の
サービスでは過去のファイルの残骸だっ
たりとか昔のURLの残骸って発見する
ことができないんですねと言いますのも
このクロール型のサービスって内部リンク
をたどるんですけども古いサイトだったり
とかあとは本来インデックスさせるような
ものじゃなかったファイルのURLって
内部リンクがそもそもされてなかったり
するんですクロール型のツールでは発見が
できないんですねじゃどうやって発見すれ
ばいいのか私がよく使うケースとしては
サーバーログになりますいわゆるエンジン
Xアッチと言われるようなサーバーが出力
するURLログだったりそれらを格納し
てるエラスティックサーチからファイルを
ダウンロードしてそのファイルをネット
ピークで読み込んで各URLごとに今でも
存在してるかこれはステータスコードで
確認していったりあとはGoogle
クローが回遊可能なのかノーインデックス
だったりそこに対してLRされていないと
かまたまた定品スコンテンツになってない
かページのコンテンツの長さでまず1回
フラグ付けしていただくこともできますし
そもそも今Googleにインデックスさ
れてのかとかあとはそのページにおいて
流入が発生してるのかこういったデータを
組み合わせながら不要ページの
ディレクトリーだったりとかそういった
ものを発見していく形にありますそれで
発見してことによってまず最初着手し
なきゃいけない大型データベースサイトに
おけるクラビティの改善施策の立案にまず
最初ネッドピークを使っていただけるん
じゃないかなと思いますケース2つ目は
Googleアルゴリズムの調査ですねこ
アルゴリズムアップデート後に検索結果の
URLを取得していただいて1位から10
位のURLドメインの獲得してる非リンク
だったりとか非検索流入がどれだけあるの
かとかあとはユーザーの行動指数ってどう
なのかとかユーザーエクスペリエンスじゃ
ないですけどもcorバイルスの状況は
どうなのかとか検索したキーワードと上位
ヒットしているページの内容の検索以の
マッチ度これをネットピークのデータと
チッGTPの判別で分析することがあり
ますそんな形でアルゴリズムの分析にも
ネットピークよく使ったりしますケース3
つ目はリンクの否認ですね最近はあまり
聞かなくなりましたけどもいわゆる主導
対策で外部サイトからのリンクこれが
当たってしまった場合リンクの否認をする
必要があります数千リンクであれば1つ1
つ目視チェックしてけばいいんですけども
これ数々数10万リクある場合目視
チェックしていくのは非常に難しい形に
なりますどうすればいいかっていうと
ネットピークを使ってまず最初振り分け
るってことですね例えばリンク元に
インデックスがあるかないかだったり
suoのトラフィックがあるかとかあとは
リンク元のタイトル分を取得してその
タイトル分をこういったラングジ
ディテクション言語判定APIを使って
日本語のサイトから避妊されてるのかそれ
とも全然違う言語例えば中国語とかロシア
語から否認されてるのかその言語からこれ
らは否認するべきような田舎のフラグ付け
をしていただいたりあとは封から判別し
たりモズのドメインのオーソリティチを
使ってフラグ付けすることがありますこれ
ではデータを使いながら1つ1つ目
チェックをするんじゃなく明らかに否認
するべきリンクっていうのをまずざっくり
抽出しそして判別がなかなか難しいもの
だけ目見チェックをすれば時短にもなるし
ある程度精度高くリンクの否認を行って
いただくことができるんじゃないかなと
思いますこんな感じですねURLを指定
すればあらゆる検査をしていたことが
できるのがこのネットピークになるので
これを4つ目のツールとして取り上げさせ
ていただきましたこっからですね番外編も
お話しさせてくださいまず1つ目がAWS
のrdsですねデータベース型サービスに
なります実際の画面はこんな感じなんです
けども簡単にデータベースってのを
立ち上げることができるサービスなんです
ねでよく皆さんS要の分析でExcelを
使っていただく方が多いと思うんですけど
もExcelの1つの弱点としては大量
データを分析したりとかあとはいろんな
データを結合したり複雑な集計そういった
ものには向いていないんですよねSEOの
分析って今いろんなデータを取得すること
ができまして例えばGA4のデータだっ
たりサーチコンソールのデータサープの
データいろんなデータを手にすることが
できると思いますそのデータを結合すると
実は今まで見落としていたポイントっての
が発見することができるんですねただ
Excelだとなかなかそれができないっ
ていうところで私よく使ってるのは
MySQLrdsになりますこれを使って
いただければ大量のデータでも簡単に
ですね実際にこう立ち上げていただいてS
3にいろんなデータをまず格納しそして
rdsからMySQLのダンプで読み込む
ば簡単にデータの取り込みもできるよなり
ますあとはMySQLクラウトを使って
SQL叩きいろんな結合すればですね今
まで見落していた新たなインサイト発見
することできるんでこのAWSのrdsも
使っていたりしますあともう1つはこちら
GPT4のターボですねGPT4で
カテゴリー付けしたりとか競合サイトの
カテゴリー付けをすることあるんですけど
も今までのGPT4よりも圧倒的に
取り扱いできるトークン数が増えたんです
ねGPT432Kの場合はトークン量とて
は3万2000円トークンだったんです
けどもGPT4ターボになると12万
18000とこで桁が変わるわけですなの
で大量のデータ分析する時はGPT4
ターブを使って分析することをお勧めして
いますで私の場合はですねOpenAIの
プレイグラウンドを使ってモデルから
GPT4106プレビューこれを選択して
いただければターボを使うことできますし
もっと大量のデータを長時間分析する場合
はバッチを作って分析することによって1
つ1つ入力しなくても簡単に分析すること
ができるかなと思います以上ここまでが
ですね番外で編でしたで最後にご紹介する
のはこちらプロランクトラッカーていう
サービスですねこちらのササービス一見
するとよくある検索順位ツールのように
見えるんですがこのツールで私よく使うの
がこちら検索結果上1位から50位の
URLの過去の数っていうのをこのように
表示することができるんですね私よくこれ
使うシとしてはGoogleコー
アルコリスタ時のアルコリスタ特に初動の
調査によく使ったりしますと言いますとも
Googleのコアルゴリズムの発表って
本当突然ですし意外に日本時間の早朝と
かってケースがありますよねこの早朝の
タイミングで分析をしなきゃいけなかっ
たりしますし私もこのYouTubeで
そこをお伝えしてるとこもあるんですけど
もやっぱり我々のお客様に対してもそこを
お伝えする必要があるんですその時に
たくさんサービスが溜まってる
データベースサーバーでアクセスして
そしてSQLを叩きながら分析するって
いうのは結構時間がかかってしまうので
まず初動の調査する時にはこちらのツール
を使ってどういうサイトがどういう動きを
したのかその初動調査する時にフルサース
の可視化ツールってのをよく使ったりし
ます以上で今回はProが使うsuo
ツール5000という形でお話をさせて
いただきましたこれ以外にもですねお話
できるツールありまして今日お話でき
なかったんですが我の車内ツールには
ドメイン情報を1括で取得することでき
たりとかあとはサーチコンソールのAPI
から検索パフォーマンスのデータ特に
サーチコンソールのデータデってページ別
のURLの別のデータっていうの取得でき
ないんですけどもこれをサーチコンソル
API経由で別のデータを取得したりとか
あとはキーワードのカテゴライズをAPI
とバッチを使ってやったりあとはキー
バードマップですねこのキーバードマップ
もフルリニューアルしまして今こんな形で
各ページごとにタスクを作ることでき
ページごとにアクセス状況を把握したり
Googleアナリティクスサーチ
コンソールのデータと今連携できて新規
記事のアクセス数とリライトした後の
アクセス数をちゃんと追うことができる
こういった機能もつけていたりしますこの
よりですね私がプロというのなんですけど
もプロが使うツールってのは社内ツールも
社外ツールも結構あったりするんでこれで
もですねまた皆さんにお話していきればな
と思います以上で今回はSEO
コンサルタントのプロが使うSEOツール
5000という形でお話をさせていただき
ましたこの動画がためになったなって方
是非高評価とコメントいただきます幸でう
ございます今回も最後までご覧いただき
ありがとうございました
تصفح المزيد من مقاطع الفيديو ذات الصلة
5.0 / 5 (0 votes)