【SEOツール5選】SEOコンサルが使うツール

SEO研究チャンネル
8 Jan 202419:41

Summary

TLDRこの動画では、SEOコンサルタントが約10年以上の経験を活かし、プロが実際に使っているSEOツール5つを紹介しています。ナマ.スAというExcelとの連携ツールから始め、キーワード分析、ランキング調査、ウェブサイトの過去のHTML取得、リンク分析など、様々な機能を持つツールを紹介。さらに、AWSのRDSやGPT4ターボなど、データベース分析やAIを活用したツールも紹介。最後にプロランクトラッカーを使った検索結果の可視化を例に、SEO分析におけるツールの活用方法を解説しています。

Takeaways

  • 😀 SEOコンサルタントが約10年以上働いた経験から、プロが使うニッチなSEOツール5つを紹介している。
  • 🔍 1つ目のツールはnamas.Aで、Excel上でChatGPTを利用してキーワード制作やカテゴライズが可能だ。
  • 📊 2つ目のツールはキーワードマップで、検索結果の上位50位のURLやドメイン情報を一括取得できる。
  • 📈 3つ目のツールはHで、ペイジインスペクトなどの新機能を活用して過去のHTMLを取得し、ページの変更点を分析できる。
  • 🔗 4つ目のツールはリンクインターセクトで、競合サイトと自分のサイトのリンク差を発見し、非リンク獲得の可能性を探ることができる。
  • 🖥️ 5つ目のツールはネットピークチェッカーで、URLリストを検査し、オンページ要素やユーザービヘイビアデータを取得することができる。
  • 🛠️ AWSのRDSを利用して大量のデータを分析し、Excelでできない複雑な集計やデータの結合を行う。
  • 🚀 GPT4のターボを使用して、より多くのトークンを処理し、大量のデータ分析を行う。
  • 📊 プロランクトラッカーを使用して、検索結果上位50位のURLの過去のデータを表示し、アルゴリズムの変化を迅速に把握する。
  • 🛑 不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認など、ネットピークチェッカーを使って様々なSEO分析を行う。
  • 🔧 SEO分析では、プロが使用するツールは社内ツールも社外ツールも多岐に渡り、柔軟な対応が重要であると示唆されている。

Q & A

  • 質問1: 今回紹介されるSEOツールは何について特に焦点を当てていますか?

    -今回紹介されるSEOツールは、プロが使うニッチなツールに焦点を当てています。

  • 質問2: 最初に紹介されたツール「Nam.A」はどのような機能を持っていますか?

    -Nam.AはExcelでChatGPTを利用できるツールで、キーワード制作やカテゴライズ、タイトルやディスクリプションの作成が簡単にできます。

  • 質問3: 「Nam.A」の具体的な使い方の一例を教えてください。

    -キーワードに基づいたブログ向けのタイトルを作成するために、Excelに専用関数「Nam.A」を入力し、プロンプトとして「与えるキーワードに関するブログ向けのタイトル部分を日本語で書いてください」と入力します。

  • 質問4: Nam.Aのメリットとデメリットは何ですか?

    -メリットは、Excelを通じてChatGPTを簡単に利用できることです。デメリットは、プロンプトが短いため精度を上げづらい点です。

  • 質問5: 二つ目に紹介されたツール「キーワードマップ」はどのような機能を提供しますか?

    -キーワードマップは入力したキーワードの検索結果から1位から50位のURLやドメインを取得し、データ分析やキーワード選定を支援します。

  • 質問6: キーワードマップの「検索市場レポート」の主な機能は何ですか?

    -検索市場レポートは、入力したキーワードの1位を取っているドメインと獲得数をグラフで表示し、CSVでダウンロード可能です。

  • 質問7: 三つ目に紹介されたツール「H」の新機能は何ですか?

    -Hの新機能「ペイジインスペクト」は、過去のHTMLも取得し、過去と現在の変更点を視覚的に比較することができます。

  • 質問8: Hの「クイックバッチアナリシス」は何に役立ちますか?

    -URLを最大200個まで一括で入力し、SEO指標を簡単に取得することで、上位表示する要素の分析ができます。

  • 質問9: 四つ目のツール「ネットピークチェッカー」はどのように利用されますか?

    -ネットピークチェッカーは、調査したいURLを入力してステータスコードやタイトル文などのデータをクローリングして取得します。

  • 質問10: ネットピークチェッカーの具体的な活用例を教えてください。

    -不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認などに活用されます。

Outlines

00:00

🤖 SEOツールの紹介とナマ.スAの活用方法

第1段落では、SEOコンサルタントが10年以上経験を活かして、プロが使用するSEOツールについて語ります。特にナマ.スAというツールを紹介し、ExcelKを通じてチャットGPTを利用することで、キーワード制作やカテゴライズ、タイトルやディスクリプションの作成が可能であると説明します。ナマ.スAIをインストールすると、Excelにアドインがセットされ、プロンプトを通じてGPTを利用できる利点を強調しています。

05:01

🔍 検索市場レポートを使った上位サイトの分析

第2段落では、検索市場レポートというSEOツールを使い、入力したキーワードの検索結果上位50位までのURLを一括取得し、上位サイトの調査やキーワード領域の分析を行う方法を解説します。CSVダウンロード機能を使ってピボットテーブルを作成し、強いサイトや伸びてくるサイトの発見が可能になる点を紹介しています。また、特定のサイトを詳細分析し、階層ごとのデータを持つことの重要性を説明しています。

10:03

🛠️ H1ツールの新機能紹介とSEO分析手法

第3段落では、H1ツールのペイジインスペクトやクイックバッチアナリシス、リンクインターセクトなどの機能を紹介し、それらを使ってのSEO分析手法について説明します。過去のHTMLの取得や非リンク獲得プロジェクトの活用、上位表示要素の分析方法などを具体的に紹介しています。

15:05

🕵️‍♂️ ネットピークチェッカーの機能とケーススタディー

第4段落では、ネットピークチェッカーというWindowsデスクトップアプリケーションの機能を紹介し、不要ページの洗い出しやGoogleアルゴリズムの調査、リンクの否認などのケーススタディーを通じて、その活用方法を説明しています。ネットピークを使っての検査項目の取得や分析手法について詳細に語っています。

Mindmap

Keywords

💡SEOツール

SEOツールとは、検索エンジン最適化を支援するソフトウェアやサービスのことを指します。このビデオでは、プロが使用するSEOツールについて紹介しており、それらはキーワード分析、ウェブサイトの改善、検索エンジンのランキングを追跡するのに役立ちます。例えば、Microsoft ClarityやGoogle Analyticsなどが挙げられます。

💡プロが使うSEOツール

プロが使うSEOツールは、一般的なツールよりも高度な機能や細かい分析を提供するもので、SEOコンサルタントや専門家がより効果的な最適化を行うために利用されます。ビデオでは、プロが実際に使っている5つのツールについて紹介し、それぞれの特徴と利点を説明しています。

💡namas.A

namas.Aは、ExcelとChatGPTを組み合わせたツールで、キーワードの作成やカテゴライズ、タイトルやディスクリプションの生成を支援します。ビデオでは、このツールを使ってExcelからChatGPTを利用し、効率的にSEO関連のタスクを実行する方法が説明されています。

💡キーワード

キーワードは、検索エンジン最適化における中心的な概念で、ユーザーが検索エンジンで入力する言葉を指します。ビデオでは、プロがキーワードを分析し、カテゴライズ、タイトル作成にどのように利用するかが議論されており、SEO戦略の核心をなしています。

💡検索市場レポート

検索市場レポートは、特定のキーワードに対する検索結果の上位サイトの情報を集計するツールです。ビデオでは、このツールを使って検索結果の1位から50位までのURLやドメイン情報を一括取得し、市場分析を行う方法が紹介されています。

💡CSVダウンロード

CSVダウンロードとは、データをカンマ区切り形式で保存し、スプレッドシートソフトウェアで分析できるようにすることです。ビデオでは、検索市場レポートから得られたデータをCSVでダウンロードし、ピボットテーブルを使って分析する方法が説明されています。

💡ヒートマップ

ヒートマップは、ウェブサイトの特定のページ上でユーザーが最も興味を示す領域を可視化したものです。ビデオでは、ヒートマップを使用してウェブサイトのユーザービヘイビアーを分析し、SEO戦略の改善に活かす方法が議論されています。

💡リンク分析

リンク分析は、ウェブページ間のリンク構造を分析し、ウェブサイトの权威性や検索エンジンランキングに影響を与えるリンクの質と量を評価するプロセスです。ビデオでは、ツールを使ってリンクを分析し、SEO戦略を強化する方法が紹介されています。

💡ウェブクローラー

ウェブクローラーは、インターネット上のウェブページを自動的に探索し、データを収集するソフトウェアです。ビデオでは、ウェブクローラーを使って特定のURLを検査し、SEO分析のための情報を収集する方法が説明されています。

💡ユーザービヘイビアー

ユーザービヘイビアーは、ウェブサイト上でのユーザーの行動を分析するプロセスで、クリック率、滞在時間、バウンス率などの指標を測定します。ビデオでは、ユーザービヘイビアーを分析してウェブサイトの改善とSEO戦略の策定に活かす方法が議論されています。

💡Googleアルゴリズム

Googleアルゴリズムは、Googleが使用する検索結果をランキング付けるための複雑なルールセットです。ビデオでは、Googleアルゴリズムの変更に応じてウェブサイトを最適化し、検索結果への影響を分析する方法が説明されています。

💡プロランクトラッカー

プロランクトラッカーは、ウェブサイトの検索エンジンランキングを追跡し、分析するツールです。ビデオでは、このツールを使って検索結果上位のURLの過去のデータを表示し、ランキングの変動を監視する方法が紹介されています。

💡AWS RDS

AWS RDSは、クラウド上でリレーショナルデータベースを簡単に立ち上げて管理できるサービスです。ビデオでは、AWS RDSを使って大量のデータを分析し、SEOの新たなインサイトを発見する方法が説明されています。

💡GPT-4ターボ

GPT-4ターボは、より多くのトークンを処理できる高度なAIモデルです。ビデオでは、GPT-4ターボを使って大量のデータを分析し、SEOの分野でより正確な結果を得る方法が紹介されています。

Highlights

プロが使うSEOツール5選を紹介

ナマスAI: ChatGPTをExcelで使うツール

キーワードの生成や分類、競合分析が簡単にできる

キーワードマップ: トータル的なSEOツール

検索市場レポートで上位サイトの調査と分析が可能

CSVダウンロードで詳細なデータ分析が可能

ピボットテーブルで強いサイトと弱いサイトを分析

過去のHTMLも取得可能なPage Inspect機能

クイックバッチアナリシスで大量のURLを一括分析

リンクインターセクトで非リンク獲得プロジェクトに使える

ネットピークチェッカーでURLのクローリングと検査

不要ページの洗い出しやGoogleアルゴリズムの調査に役立つ

リンク否認の効率化も可能

番外編: AWSのRDSを使った大量データの分析

GPT-4ターボでの大量データ分析

プロランクトラッカーで検索順位ツールとしての利用

コアルゴリズムの調査に使えるフルサースの可視化ツール

新しいSEOツールや機能の実用的な使い方を紹介

Transcripts

play00:00

どうもタルですさあ今回はプロが使う

play00:01

SEOツール5戦これについてお話して

play00:03

いきたいと思います私なんですけども

play00:05

SEOコンサルタントして約10年以上

play00:07

働いていますでよくSEOツールと言い

play00:08

ますとMicrosoftクラリティとか

play00:10

スクリーミンフロックSEMラシとか

play00:11

Googleアナリティクスやサーチ

play00:12

コンソールまそういったツールがよく

play00:13

やれると思うんですけどもおそらく皆さん

play00:15

それご存知かと思うので今回はそうじゃ

play00:17

なくてプロが使う結構ニッチなツル

play00:19

5000お話していきたいと思いますまず

play00:20

1つ目namas.Aですねこれ何かと

play00:23

言うとChatGPTをExcelKで

play00:25

使うことができるまそういったツールに

play00:27

なりますExcelKでチャットGPTを

play00:28

使えると何がいいかというとキーワードを

play00:30

制作したりキーワードをカテゴライズし

play00:32

たりサープの競合別をつけたりタイトルや

play00:34

ディスクリプションをざっと作ることが

play00:35

できるまそういったメリットがあるんです

play00:37

ねこのナナスのAIをインストールして

play00:38

いただくとExcelにこういったアドが

play00:40

セットされますこれを使ってですね

play00:42

Excelからチャットgpdを使ってみ

play00:43

たいと思います今回はですねキーワード

play00:45

からタイトル分を作ってみるまそんな関数

play00:47

を作ってみたいと思いますまずキーワード

play00:48

を用意しましたここにですねNam.Aの

play00:50

専用関数Nam.Aこれを入力します

play00:53

そしてプロンプトを入力するんですけども

play00:55

今回のプロンプトはこちら与えるキー

play00:56

ワードに関するブロッキ向けのタイトル

play00:58

部分を日本語で書いてくださいこういう

play01:00

プロフトを入力してキーワードが入ってる

play01:01

セルをセットしますそうするとこんな形で

play01:04

Excel経由でチャットGPTを使う

play01:06

ことができるんですよねでは実際に生成さ

play01:08

れたタイトル分を見てみたいと思います

play01:09

まず最初キーワードはNISAとはこの

play01:11

キーワードに対してタイトル分はNISA

play01:13

とは何か初めての投資におすすめの制度

play01:15

まあ使えそうなタイトル分ですね他のキー

play01:16

ワードNISAおすすめ銘柄このキー

play01:18

ワードに対するタイトル分はNISAで

play01:20

賢く投資おすすめの銘柄を厳選して紹介

play01:22

こんな形ですねタイトルをざっと生成する

play01:25

ことができるこれもExcelを通して

play01:26

チャGPTを呼び出せる1つのメリット

play01:28

じゃないかなと思いますではもう1つの

play01:29

使い方キーワードをDoNoGOby

play01:32

クエリに分けるってやり方ですね実際入力

play01:34

者関数はいつも通りNum.Aなんです

play01:36

けども入力者プロンプトはこんな形ですね

play01:38

キーワード対象となるセルのSEO

play01:40

カテゴリーDoNoGObyはどれに

play01:42

当たりますか行為プロンプとを入力しまし

play01:44

たそうするとdoNoGObyが入力さ

play01:46

れるんですよねじゃ実際に制度を見ていき

play01:47

たいと思いますまずこの2つのキーワード

play01:49

NISAとはNISA成長投資枠とはこの

play01:51

キーワードに関してはノークエリって入っ

play01:53

てんですねま確かに正しそうですね他にも

play01:55

こちらNISA積み立て投資枠NISAお

play01:57

すめこれに対してはバイクエリになってる

play01:59

ですこれも正しそうですね他にもこちら

play02:01

NISAシミュレーションこれもノー

play02:02

クエリーですしNISA口座変更これも5

play02:05

クエリーなんですね確かにこれだけ見ると

play02:06

正しくクエリータイプが分けられてるよう

play02:08

に見えますなのでこんな形でExcel

play02:10

からチャトGTPを呼び出してカテゴリー

play02:12

付けしたりとかクエリータイプを分けたり

play02:14

まそんなことができるのがこのツールの

play02:15

メリットかなと思いますただデメリットも

play02:17

あってですねやっぱりプロンプ度が短いん

play02:19

ですよねですから精度ってのは上げづらい

play02:21

かなと思いますとはいえ精度を上げたいん

play02:22

だったら専用のデータベースとAPIと

play02:25

そしてバッチを組んだ方が早いんですよね

play02:26

なので精度をすごく極めたいんだったら別

play02:28

のツールを使うべきなですけどもやっぱり

play02:30

このnamin.AIのメリット何かと

play02:32

言うとサクっとチャットGPTなどを

play02:34

Excelを通して使えるってのが

play02:35

メリットなので簡単な分析をサクっと

play02:37

終わらせたいでも毎回APIを組み上げる

play02:39

の面倒くさいなっていった場合はトAIは

play02:41

おすすめのツールじゃないかなと思います

play02:42

では2つ目のツールですねキーワード

play02:44

マップになりますキーワードマップはです

play02:45

ねトータル的なSEOツールなんですけど

play02:47

も特に私がSEOコンサルタントしてよく

play02:49

使うツールがこちら検索市場レポートです

play02:51

ねこれ何かと言うと入力したキーバードの

play02:53

検索結果に出てくる1位から50位の

play02:56

URLやドメインを全て一括で取得する

play02:59

ことができるんですねねなおかつこんな形

play03:00

でCSVでもダウンロードすることができ

play03:03

ますこのデータを使っていただければどう

play03:04

いうキーワードにおいてどういう上位

play03:06

サイトがいるのかっていったような上位

play03:08

サイトの調査だったりキーワード領域に

play03:09

よってどのサイトが強いのかどのサイトが

play03:11

弱いのかまそういったキーワード領域の

play03:13

分析もできたりそこからキーワードの選定

play03:15

をデータを用いて行うことができるように

play03:17

なりますじゃ実際に使ってみましょうまず

play03:19

ツールでですねキーワードを入力します

play03:20

これ1回にですね3000キーワードまで

play03:22

最大入力することができますそして対象に

play03:24

なるデバイスと地域を選んでデータの取得

play03:26

を押しますそうするとこんな形でデータの

play03:28

取得が始まります時間なんですけども約

play03:30

3000キーワードで10分から15分で

play03:33

取得が終わるのでかなり時短しながら

play03:34

データしとしていただくんじゃないかなと

play03:36

思います取得が終わりますとこういった

play03:37

結果画面が出てきますまず最初見て

play03:39

いただきたいのはこちらのグラフなんです

play03:40

けども入力したキーワードの1位を取って

play03:43

いるドメインと1位の獲得数を表した

play03:45

グラフなんですね今回入力したキーバード

play03:47

はクレジットカード関連のキーバード

play03:49

3000公を入力しましたこれらキー

play03:50

バードで1位取ってるサイトっていうのは

play03:52

smbccard.comだったりJCB

play03:54

.co.jpだったりsezonCard

play03:56

.co.jpこういった7たる公式サイト

play03:59

が1をってるってのは分かりますこんな形

play04:01

で入力したキーワードの1位のサイトって

play04:03

いうのはまず簡単に分析することができる

play04:04

んですねただこの機能の1番の使いどころ

play04:06

は検索結果サフスのデータを一括でCSV

play04:09

でダウンロードするところにありますなで

play04:11

こうカチっと押していただくとCSVで

play04:12

ダウウンロードできますこのCSVを

play04:14

ダウンロードした後によくこんな形で

play04:15

ピボットを組むんですよねこのピボトって

play04:17

いうのは左側にドメイン上に1位から10

play04:19

位順位をつけてそしてその順位にヒット

play04:22

するキーワード数をこんな形でクロス集計

play04:24

していますこのクロス集計を見るだけでも

play04:26

今回入力したキーワードクレジットカード

play04:28

関連で1位を最もを取ってるサイトはどう

play04:30

いうサイトなのか1位から5位にヒットし

play04:32

てるサイトはどういうサイトなのか逆に

play04:34

10位以降のサイトはどういうサイトなの

play04:36

かそういった形でデータを全体的に見

play04:38

ながら強いサイトと今伸びてきてるサイト

play04:40

もしくは落ちめにあなサイトっていうのを

play04:42

発見することができますまたキーワード

play04:44

ごとにカテゴリーAカテゴリーBをつけ

play04:46

ながら分析をすると実はカテゴリーAで

play04:48

強いサイトはカテゴリーBでは強くなかっ

play04:50

たり逆にカテゴリーBで強いサイトは

play04:52

カテゴリーAでも今上がってきてるこんな

play04:54

形でカテゴリーごとでも強いサイトって

play04:56

いうのを発見することができるんじゃない

play04:57

かなと思いますさらにですねこのCSV

play04:59

URLも入ってるんですけどもスラッシュ

play05:01

ごとに区切リ位置で分けることによって

play05:03

こんな形で回送ごとのデータってのも横に

play05:05

つつけることができますこのデータがある

play05:06

と特定のサイトにおいてどの階層どの

play05:09

ディレクトリーが強いかっていうそういっ

play05:11

た詳細分析もできるんですね例えば今回

play05:13

こちらmybest.COMさんを分析さ

play05:15

せていただいたんですけども私が入力した

play05:16

クレジットカード関連の3000個のキー

play05:18

バードのうちmybest.COMさん1

play05:20

位から10位の獲得キーバード数ってのは

play05:22

実は372個ありましたじゃあこれどう

play05:24

いうページがどういうディレクトリーが

play05:26

獲得してるのかってところでまず第1

play05:28

ディレクトリーを入力してますそうすると

play05:30

こんな形でですねざーっと第一

play05:31

ディレクトリーごとの1位から10位の

play05:33

格闘キーワード数が出てきましたよく皆

play05:35

さんが目にするマベさんのサイトのURL

play05:37

っておそらくこんな形じゃないかなと思い

play05:39

ますドメインがあってそして記事の番号が

play05:41

あるこういった形のURLがほとんどなん

play05:43

ですけども実は今回私が分析してみた

play05:45

データを見ると確かに記事URLが第1

play05:47

ディレクトリに来るページもあるんですが

play05:49

それとは別に第1ディレクトリーには

play05:51

アーティクルズが入ったページっていうの

play05:53

が実は最も獲得キーワード数が多いっての

play05:55

があったんですねじゃあこの第1

play05:56

ディレクトリーがアーティクルズ配管には

play05:58

どういうページがあるのかってことで今度

play06:00

第2ディレクトリー入れるとこんな形で第

play06:02

2ディレクトリーごとの格闘キーワード数

play06:04

ってのが分かってくるんです例えば1番上

play06:05

のもの見てみるとスラアーティクルズスラ

play06:07

110この記事が獲得キーワード数13個

play06:10

っての分かりましたじゃあこれどういう

play06:11

ページなのかどういうキーワードを獲得し

play06:14

てるのかそれを分析するべくこのピボット

play06:16

のところをカチカチとクリックしますそう

play06:17

するとこのページだけが獲得してるキー

play06:19

ワードがずらっと並んでるんですね実際に

play06:21

このアーティクルズ110番のページが

play06:23

獲得してる記見るとクレジットカード1日

play06:25

億で信用情報とかクレジットカード支払い

play06:28

遅で数日と支払いバスでこういった遅延に

play06:31

関するキーワードドってのが出てるんです

play06:33

よねこれってもしかしたら収益系のキー

play06:35

ワードじゃなくどちらかていうとノー

play06:36

クエリーのキーワードだと思うんです

play06:38

こんな形ですね実はマイベストさんよく

play06:40

ランキングとかおすめって言ったような

play06:42

収益系が強いようなイメージあるんです

play06:43

けどもその収益ページとは別に潜在層向け

play06:46

のキーワードもちゃんと対策していてそれ

play06:48

をアーティクルズ配下で対策してるって

play06:50

言ったような潜在向けのページが作って

play06:51

るってのも分かったんですつまりトップ

play06:53

ページの下によく私ともが見る数字がある

play06:56

顕在層向けのページとは別に

play06:57

アーティクルズすら数字記事番号がある

play07:00

潜在層向けのノークエリを対策するページ

play07:02

も実は用意しているそしてこのノークエリ

play07:04

のページから順位上昇を最も図りたい顕在

play07:07

層向けのページに内部リンクを集約させて

play07:09

いるこういった構造があるっていうのが

play07:11

データから見て分かったんですねこんな形

play07:13

でいつも自分たちが競合を見ているページ

play07:15

とは別に他のキーバードも獲得していて

play07:18

そしてこんな形でトピクラスターを作っ

play07:19

てるんだよこういったことをデータを使え

play07:21

ば実は見落としたところも発見することが

play07:23

できるんです今回はあくまでも私が勝手に

play07:26

ですねマイベトさんのケースを分析しまし

play07:27

たが他のサイトを見てみると実はこういう

play07:29

ところでこういうクエリーを作っていって

play07:30

トピックラスター内部リクを構築していた

play07:32

こういったことがデータから発見すること

play07:33

ができますまた他の使い方とはこちら

play07:35

CSVにキーワードの種別DoNo5by

play07:38

をつけていただくことによってこんな形で

play07:40

DoNo5倍ごとにどのドメインが獲得し

play07:42

てるかっていうのも分かるんですねなので

play07:44

あるサイトは実ノークエリーには非常に

play07:46

強いんだけども意外にバイクエリーには

play07:48

弱かったそういったことも分かるのでどの

play07:50

サイトをちゃんとベンチマークすればいい

play07:51

のかそこもキーバードの種別とPIVOT

play07:53

を使っていただければうまく分析できるん

play07:55

じゃないかなと思いますこのよりですね

play07:57

検索市場レポートのデータを使って

play07:58

いただければ今が伸び始めてきている新規

play08:00

サイト発見したりとかあとは各サイトの

play08:02

ページの戦略がかかってきたりまたまた

play08:04

強いサイトが参入していないでも実は結構

play08:07

狙い目のキーワードつまり空いているキー

play08:09

ワードを分析することもできるんですね

play08:11

その他にもサースデータを使って

play08:12

いただければキーワードごとに

play08:13

グルーピングもしていただくこともでき

play08:14

ますこんな形でSEO分析ができるデータ

play08:17

を簡単に取得できるのがこの検索市場

play08:18

レポートになりますんでこれよく使ってる

play08:20

ツールとして2つ目に上げさせていただき

play08:22

ましたでは3つ目ですねそれがHです

play08:24

こちらになりますま皆さんもよく使われ

play08:25

てるツールだと思うんですけどもこちらの

play08:27

ツール実はつい最近新しい機能が出てまし

play08:29

てそれはこちらペイジインスペクトですね

play08:31

これ何かと言うとこんな形で対象となる

play08:33

URLのHTMLってのが見れるんですさ

play08:36

にHTML見れるんだったらそれツール

play08:37

使う必要性ないよねと思らると思うんです

play08:39

が1番のポイントはこちら過去のHTML

play08:42

も取得することができるんですね例えば

play08:43

こちら1年前のページと同じURLの今日

play08:47

の時点のURLこんな形で比較することが

play08:49

できるんです以前過去のページを見てる時

play08:51

は私ウバックマシンを使っていたんです

play08:53

けどもウバックマシンっていうのは過去の

play08:55

ページは見れるものの今のページと過去の

play08:57

ページ何が変わったのかっていうこの比較

play08:59

っていうのは自分の目で行う必要があった

play09:01

んですHSの新機能を使っていただければ

play09:03

過去あったもので今消えてしまったものは

play09:05

赤く表示されますし新たに追加された

play09:07

ところは緑色で表示されるんですねこんな

play09:09

形で何が変わったのかを資格的にも簡単に

play09:12

把握していただくことができるので例えば

play09:13

あるサイトが急に上がってきた場合その

play09:15

サイト何を変更したのか何をリライトした

play09:17

のかそういったことを分析する際はこの

play09:19

機能を使っていたりしますまた他の機能

play09:21

クイックバッチアナリシスこれもよく私

play09:23

使っていたりしますこれ何かと言うと

play09:25

URLを最大200個まで1括で入力し

play09:28

そしてhtxの指数を簡単に取得すること

play09:30

ができるそういった機能なんですね例えば

play09:32

この機能を使っていただければ非常に簡易

play09:34

的にはなるんですけども上位表示する要素

play09:36

の分析もすることができます例えばこちら

play09:38

キーワードツールで検索するといろんな

play09:40

サイトがずらっと並んでるんですね私の

play09:42

サイトは結構下にいるのでんで上がらない

play09:44

のかなところで1位から10位のURLを

play09:46

こんな形で入力して分析ってボタンを

play09:48

カチッと押しますそうすると今上位にる

play09:50

サイトのhdxの指標っってのが簡単に1

play09:53

回せ取得できるんです実際に見てみると

play09:55

キリクに大きな差があるっていうのも

play09:56

分かりました例えばこちらサービスサイド

play09:58

のトプページに関しては割と非リンク多め

play10:01

に取ってるってのは分かるんですけども逆

play10:02

に2以降の記事ページに関してはこの記事

play10:05

ページ単体では非リンクは取ってなくて

play10:07

どちらかと言うと記事メディアのサイト

play10:09

全体のテーマ性だったりドメインの評価で

play10:11

取ってるってことがこっからは推測され

play10:13

ますこんな形ですね上位サイトがどういっ

play10:15

たポイントで上位表示してるのかそれを

play10:17

すごく簡易的でありますけどもまずサクっ

play10:19

と把握していただく時に私を使っていたり

play10:21

しますでもう1つ使える機能としては

play10:22

こちらリンクインターセクトバイレクサス

play10:29

のサイトには非リンクしていないこういっ

play10:30

たサイトを発見することができるんですね

play10:33

このサイトを発見すれば非リンク獲得

play10:34

プロジェクトにける企画や設計そういった

play10:36

時に使えるんじゃないかなと思います実際

play10:38

に使っていきましょう例えば競合サイト

play10:40

キーワードツールさんとか入れていただい

play10:41

てそして私のサイトゲットキーワードを

play10:43

入れてみますそうすると私のサイトには非

play10:45

リンクしてないんだけども競合のサイトに

play10:47

は非リンクしてるそういったサイトを発見

play10:49

することができるんですね実際にその結果

play10:50

こちらになりますWixさんのサイトなん

play10:52

ですけども競合サイトには非リンクしてる

play10:54

んですが私のGet

play10:59

からですねどういうライターさんが書い

play11:00

てるのかライターさんへのアプローチ方法

play11:02

はどうすればいいのかこのライターさんが

play11:03

興味関心を持つコンテンツテーマは何なの

play11:05

かそこからキリンク獲得リンクアーニング

play11:07

の試作っていうのを検討していただくこと

play11:09

ができるんじゃないかなと思いますリンク

play11:10

アーニングに関してはこちらの別の動画で

play11:12

も説明していますのでこちらも合てご覧

play11:13

いただければと思いますここまでがHTの

play11:15

ご紹介になりました次4つ目のおすめ

play11:17

ツールですねそれがこちらネットピーク

play11:18

チェッカーになりますこれはですね

play11:20

Windowsのデスクトップ

play11:21

アプリケーションなんですけどもUR

play11:22

リストを検査するためのクローラー

play11:24

サービスになります実際に調査したい

play11:26

URLを入力してどういう項目を調査した

play11:29

かこれをポチポチと入力すると調査したい

play11:31

項目のデータっていうのをクローリングし

play11:32

て取得してくれるんですね例えばこちら

play11:34

オンページという項目にはステータス

play11:36

コード202なのか404なのか503な

play11:39

のかまそういったステータスコードを取得

play11:40

してくれますしあとはURLのタイトル文

play11:43

だったりとかカノニカルがあるのかとか

play11:45

リダイレクト先URLはどこなのかこう

play11:46

いったデータを取得することができます

play11:48

またシミラーwebという項目においては

play11:50

URLドメインのPV数だったり直記率や

play11:53

自然検索経由の流入数などまそういった

play11:55

ユーザービヘイビアーのデータだったりと

play11:57

かどの流理元からどれぐらいの入を取っ

play11:59

てるのかまそういったデータを取得する

play12:00

ことができますまたGooglesurp

play12:02

というカテゴリーにおいてはそのURLが

play12:04

インデックスされてるかされてないかって

play12:06

いうところのチェックだったりタイトル分

play12:07

を取得することはできます他にも様々な

play12:09

項目があるので今自分が用意している調査

play12:12

したURリストでどのデータを取得した

play12:14

いいのかそれを指定すれば簡単にデータ

play12:16

取得することができますそうすることに

play12:17

よってあらゆる検査っていうのを行うこと

play12:19

ができるんですねとはいえですねここまで

play12:20

お話でなんかいろんなデータを取るの

play12:22

分かったけどもじゃどういう風な使い方が

play12:24

あるのっていう風にですね疑問に思われる

play12:25

方もいらっしゃると思うので実際にその

play12:27

ケーススタディーってのを話していきたい

play12:28

と思いますまずケース1は不要ページの

play12:30

洗い出しですね特に使うシーンとしては

play12:32

大型データベース型サイトの

play12:34

コンサルティングをする際この時にはよく

play12:36

このネットピークを使ったりしますといい

play12:37

ますのも大型のデータベースサイトに

play12:39

おけるSEOってやっぱりクローラリティ

play12:41

すごく重要になってくるんですよね持って

play12:42

いってしまうとインデックスコントローラ

play12:44

がとても重要になってくるんです割と大型

play12:46

のデータベース型サイトって結構運用歴が

play12:48

長いサイトが多いので運用歴が長いと

play12:50

すごく昔に作った古いページだったり本来

play12:52

インデックスさせるべきでないページが

play12:54

大量に残っていたりそういうケースがある

play12:55

んです例えば最近多いケースですとAPI

play12:57

が出力しているJンファイルが

play12:59

インデックスされていたりとかあとは過去

play13:00

作っていたページが残っているんだけども

play13:02

そのページがフロントで読み込んでる

play13:04

APIが終了していてもう何も表示されて

play13:06

いないそういった空白のページがあったり

play13:08

こういった形で運用歴は長くて大型で

play13:10

データベースサイドほどページとして機能

play13:12

していないものはたくさん残骸として残っ

play13:14

てるケースっての意外とあるんですねそう

play13:15

いったページがインデックスされてしまっ

play13:17

て定品コンテンツがインデックスを占有し

play13:19

てしまってるケースだったりあとは不要な

play13:20

クロールの回遊を生んでしまったり

play13:22

またまたクロールの回遊を下げてしまう

play13:24

ようなそういったページの要因になってる

play13:26

ことも多くあるんですなのでこういった

play13:28

不要となるペどこにあるのかそれらを

play13:30

洗い出す必要があるんですその時にネット

play13:32

ピークを使えるって形ですねとはいえここ

play13:33

で疑問になるのはURリストどうやって

play13:35

用意すればいいのって思われるかと思い

play13:37

ますこれスクリーミングフロックだったり

play13:38

とかあとはネットピークスパイダーと言わ

play13:40

れるようないわゆるこういったクロール型

play13:42

のサービスではなかなか発見することが

play13:43

できないんですこういったクロール型の

play13:45

サービスでは過去のファイルの残骸だっ

play13:47

たりとか昔のURLの残骸って発見する

play13:49

ことができないんですねと言いますのも

play13:50

このクロール型のサービスって内部リンク

play13:52

をたどるんですけども古いサイトだったり

play13:54

とかあとは本来インデックスさせるような

play13:56

ものじゃなかったファイルのURLって

play13:57

内部リンクがそもそもされてなかったり

play13:59

するんですクロール型のツールでは発見が

play14:01

できないんですねじゃどうやって発見すれ

play14:02

ばいいのか私がよく使うケースとしては

play14:04

サーバーログになりますいわゆるエンジン

play14:06

Xアッチと言われるようなサーバーが出力

play14:08

するURLログだったりそれらを格納し

play14:10

てるエラスティックサーチからファイルを

play14:11

ダウンロードしてそのファイルをネット

play14:12

ピークで読み込んで各URLごとに今でも

play14:15

存在してるかこれはステータスコードで

play14:16

確認していったりあとはGoogle

play14:18

クローが回遊可能なのかノーインデックス

play14:20

だったりそこに対してLRされていないと

play14:21

かまたまた定品スコンテンツになってない

play14:23

かページのコンテンツの長さでまず1回

play14:25

フラグ付けしていただくこともできますし

play14:27

そもそも今Googleにインデックスさ

play14:28

れてのかとかあとはそのページにおいて

play14:30

流入が発生してるのかこういったデータを

play14:32

組み合わせながら不要ページの

play14:33

ディレクトリーだったりとかそういった

play14:35

ものを発見していく形にありますそれで

play14:36

発見してことによってまず最初着手し

play14:38

なきゃいけない大型データベースサイトに

play14:39

おけるクラビティの改善施策の立案にまず

play14:42

最初ネッドピークを使っていただけるん

play14:43

じゃないかなと思いますケース2つ目は

play14:45

Googleアルゴリズムの調査ですねこ

play14:46

アルゴリズムアップデート後に検索結果の

play14:48

URLを取得していただいて1位から10

play14:50

位のURLドメインの獲得してる非リンク

play14:52

だったりとか非検索流入がどれだけあるの

play14:54

かとかあとはユーザーの行動指数ってどう

play14:57

なのかとかユーザーエクスペリエンスじゃ

play14:58

ないですけどもcorバイルスの状況は

play15:00

どうなのかとか検索したキーワードと上位

play15:02

ヒットしているページの内容の検索以の

play15:04

マッチ度これをネットピークのデータと

play15:06

チッGTPの判別で分析することがあり

play15:09

ますそんな形でアルゴリズムの分析にも

play15:10

ネットピークよく使ったりしますケース3

play15:12

つ目はリンクの否認ですね最近はあまり

play15:14

聞かなくなりましたけどもいわゆる主導

play15:16

対策で外部サイトからのリンクこれが

play15:18

当たってしまった場合リンクの否認をする

play15:20

必要があります数千リンクであれば1つ1

play15:22

つ目視チェックしてけばいいんですけども

play15:24

これ数々数10万リクある場合目視

play15:26

チェックしていくのは非常に難しい形に

play15:28

なりますどうすればいいかっていうと

play15:29

ネットピークを使ってまず最初振り分け

play15:31

るってことですね例えばリンク元に

play15:33

インデックスがあるかないかだったり

play15:35

suoのトラフィックがあるかとかあとは

play15:37

リンク元のタイトル分を取得してその

play15:39

タイトル分をこういったラングジ

play15:41

ディテクション言語判定APIを使って

play15:43

日本語のサイトから避妊されてるのかそれ

play15:44

とも全然違う言語例えば中国語とかロシア

play15:47

語から否認されてるのかその言語からこれ

play15:49

らは否認するべきような田舎のフラグ付け

play15:51

をしていただいたりあとは封から判別し

play15:53

たりモズのドメインのオーソリティチを

play15:55

使ってフラグ付けすることがありますこれ

play15:56

ではデータを使いながら1つ1つ目

play15:58

チェックをするんじゃなく明らかに否認

play16:00

するべきリンクっていうのをまずざっくり

play16:01

抽出しそして判別がなかなか難しいもの

play16:04

だけ目見チェックをすれば時短にもなるし

play16:06

ある程度精度高くリンクの否認を行って

play16:08

いただくことができるんじゃないかなと

play16:09

思いますこんな感じですねURLを指定

play16:11

すればあらゆる検査をしていたことが

play16:12

できるのがこのネットピークになるので

play16:14

これを4つ目のツールとして取り上げさせ

play16:16

ていただきましたこっからですね番外編も

play16:17

お話しさせてくださいまず1つ目がAWS

play16:20

のrdsですねデータベース型サービスに

play16:22

なります実際の画面はこんな感じなんです

play16:24

けども簡単にデータベースってのを

play16:26

立ち上げることができるサービスなんです

play16:27

ねでよく皆さんS要の分析でExcelを

play16:29

使っていただく方が多いと思うんですけど

play16:30

もExcelの1つの弱点としては大量

play16:32

データを分析したりとかあとはいろんな

play16:34

データを結合したり複雑な集計そういった

play16:36

ものには向いていないんですよねSEOの

play16:38

分析って今いろんなデータを取得すること

play16:39

ができまして例えばGA4のデータだっ

play16:41

たりサーチコンソールのデータサープの

play16:43

データいろんなデータを手にすることが

play16:45

できると思いますそのデータを結合すると

play16:47

実は今まで見落としていたポイントっての

play16:49

が発見することができるんですねただ

play16:50

Excelだとなかなかそれができないっ

play16:52

ていうところで私よく使ってるのは

play16:53

MySQLrdsになりますこれを使って

play16:55

いただければ大量のデータでも簡単に

play16:58

ですね実際にこう立ち上げていただいてS

play17:00

3にいろんなデータをまず格納しそして

play17:02

rdsからMySQLのダンプで読み込む

play17:04

ば簡単にデータの取り込みもできるよなり

play17:06

ますあとはMySQLクラウトを使って

play17:08

SQL叩きいろんな結合すればですね今

play17:10

まで見落していた新たなインサイト発見

play17:12

することできるんでこのAWSのrdsも

play17:14

使っていたりしますあともう1つはこちら

play17:16

GPT4のターボですねGPT4で

play17:18

カテゴリー付けしたりとか競合サイトの

play17:20

カテゴリー付けをすることあるんですけど

play17:21

も今までのGPT4よりも圧倒的に

play17:23

取り扱いできるトークン数が増えたんです

play17:25

ねGPT432Kの場合はトークン量とて

play17:28

は3万2000円トークンだったんです

play17:30

けどもGPT4ターボになると12万

play17:32

18000とこで桁が変わるわけですなの

play17:34

で大量のデータ分析する時はGPT4

play17:36

ターブを使って分析することをお勧めして

play17:38

いますで私の場合はですねOpenAIの

play17:40

プレイグラウンドを使ってモデルから

play17:42

GPT4106プレビューこれを選択して

play17:44

いただければターボを使うことできますし

play17:46

もっと大量のデータを長時間分析する場合

play17:48

はバッチを作って分析することによって1

play17:50

つ1つ入力しなくても簡単に分析すること

play17:52

ができるかなと思います以上ここまでが

play17:53

ですね番外で編でしたで最後にご紹介する

play17:55

のはこちらプロランクトラッカーていう

play17:57

サービスですねこちらのササービス一見

play17:59

するとよくある検索順位ツールのように

play18:01

見えるんですがこのツールで私よく使うの

play18:03

がこちら検索結果上1位から50位の

play18:06

URLの過去の数っていうのをこのように

play18:08

表示することができるんですね私よくこれ

play18:10

使うシとしてはGoogleコー

play18:11

アルコリスタ時のアルコリスタ特に初動の

play18:14

調査によく使ったりしますと言いますとも

play18:15

Googleのコアルゴリズムの発表って

play18:17

本当突然ですし意外に日本時間の早朝と

play18:20

かってケースがありますよねこの早朝の

play18:21

タイミングで分析をしなきゃいけなかっ

play18:23

たりしますし私もこのYouTubeで

play18:24

そこをお伝えしてるとこもあるんですけど

play18:26

もやっぱり我々のお客様に対してもそこを

play18:28

お伝えする必要があるんですその時に

play18:29

たくさんサービスが溜まってる

play18:30

データベースサーバーでアクセスして

play18:32

そしてSQLを叩きながら分析するって

play18:34

いうのは結構時間がかかってしまうので

play18:35

まず初動の調査する時にはこちらのツール

play18:38

を使ってどういうサイトがどういう動きを

play18:40

したのかその初動調査する時にフルサース

play18:42

の可視化ツールってのをよく使ったりし

play18:43

ます以上で今回はProが使うsuo

play18:45

ツール5000という形でお話をさせて

play18:47

いただきましたこれ以外にもですねお話

play18:49

できるツールありまして今日お話でき

play18:50

なかったんですが我の車内ツールには

play18:52

ドメイン情報を1括で取得することでき

play18:54

たりとかあとはサーチコンソールのAPI

play18:55

から検索パフォーマンスのデータ特に

play18:57

サーチコンソールのデータデってページ別

play18:59

のURLの別のデータっていうの取得でき

play19:01

ないんですけどもこれをサーチコンソル

play19:02

API経由で別のデータを取得したりとか

play19:05

あとはキーワードのカテゴライズをAPI

play19:07

とバッチを使ってやったりあとはキー

play19:08

バードマップですねこのキーバードマップ

play19:10

もフルリニューアルしまして今こんな形で

play19:12

各ページごとにタスクを作ることでき

play19:14

ページごとにアクセス状況を把握したり

play19:16

Googleアナリティクスサーチ

play19:17

コンソールのデータと今連携できて新規

play19:18

記事のアクセス数とリライトした後の

play19:21

アクセス数をちゃんと追うことができる

play19:22

こういった機能もつけていたりしますこの

play19:24

よりですね私がプロというのなんですけど

play19:26

もプロが使うツールってのは社内ツールも

play19:27

社外ツールも結構あったりするんでこれで

play19:29

もですねまた皆さんにお話していきればな

play19:31

と思います以上で今回はSEO

play19:32

コンサルタントのプロが使うSEOツール

play19:34

5000という形でお話をさせていただき

play19:35

ましたこの動画がためになったなって方

play19:37

是非高評価とコメントいただきます幸でう

play19:38

ございます今回も最後までご覧いただき

play19:40

ありがとうございました

Rate This

5.0 / 5 (0 votes)

Related Tags
SEOツールキーワード分析ランキングトラッカープロの選ぶSEOコンサルタントウェブ分析データ可視化コンテンツ戦略リンク獲得アルゴリズム
Do you need a summary in English?