SEO研究チャンネルhttps://seolab.jp/blogSEOのニュースやノウハウ情報サイトSun, 14 Apr 2024 03:25:04 +0000jahourly1(2024年3月~4月) コアアップデートとスパムアップデートhttps://seolab.jp/blog/202403-04-google-update/Fri, 12 Apr 2024 02:19:33 +0000https://seolab.jp/blog/?p=2751

2024年3月アップデートの概要 2024年3月、Googleはコアアルゴリズムアップデートとスパムアップデートを同時に実施しました。このアップデートは3月6日にリリースされ、その後3月10日、3月25日前後、4月7日頃 ... ]]>

2024年3月アップデートの概要

2024年3月、Googleはコアアルゴリズムアップデートとスパムアップデートを同時に実施しました。このアップデートは3月6日にリリースされ、その後3月10日、3月25日前後、4月7日頃の3回にわたり大きな変動が観測されました。

※注意※この記事は4月10日に執筆されましたが、その時点でコアアップデートのロールアウトはまだ完了していません。アップデート途中の状態での解析であることをご了承ください。尚、4月13日~14日にかけて、変動があったようです。

今回のアップデートはスパム対策とアルゴリズム変更が統合された形で行われ、Googleの検索品質向上への強い意志が感じられるものでした。

そして、今回のアップデートは「2024年3月のアップデート単体」で見るべきではないと考えています。

過去1年間のアップデートの流れを踏まえる必要性があり、2023年の夏から秋にかけてのアップデートや、ヘルプコンテンツアップデートで大きな変動を受けたサイトの動向にも注目するべきアップデートでもあると思われます。

スパムアップデート

スパムポリシーの更新

今回のスパムアップデートでは、Googleのウェブマスター向け公式ブログにてスパムポリシーの更新が発表されました。

新たにサイト評判の不正利用、期限切れドメインの不正利用、AI生成コンテンツの不正利用がスパム行為として追加されました。

特にAI生成コンテンツについては詳細な説明があり、「低品質で独創性のないコンテンツが合計で40%減少すると予想」と述べられるなど、Googleの強い対策姿勢が示されました。

この事からも、Googleがスパム対策に力を入れていることが伺えます。

実際のスパム対策とインデックス削除の嵐

スパムアップデートの影響は非常に大きく、多くのサイトが一斉にインデックスから削除される「インデックス削除の嵐」が話題となりました。

Twitterでは、800以上のサイトが削除されたという報告や、80サイトもの大手サイトが削除されたといった情報が投稿され、日本国内外で注目を集めました。

主な対策対象となったのは、コンテンツの独自性が低いサイトやAIで大量生成されたコンテンツを持つサイト、中古ドメインを不正に利用しているサイトなどです。

Googleがリストアップした違反サイトに対し、ポリシー更新のタイミングに合わせて一斉に対策を実行したのではないかと推測されます。

ただし、全てのスパムサイトが排除されたわけではありません。アップデート後もスパム的な手法で上位表示されているサイトも見受けられました。

しかし、今回の厳格な対応を見る限り、スパム的手法のリスクは非常に高まり、また見合うだけの効果も限定的になると想定されます。

スパムアップデートに関しては、別記事『Googleスパムアップデートを完了、その影響は?』でより詳細に解説しています。

順位変動と影響を受けたサイト

FX関連キーワード

FX関連のキーワードでは、アップデート期間中に数サイトが大きく変動しました。

サブディレクトリを活用したアフィリエイトサイトが急上昇したり、金融系の大手サイトが過去のアップデートの影響を受けて順位が変動するなどの事例が見られました。

例えば、とある金融業を営む企業のサブディレクトリを賃借しているアフィリエイトサイトは、今回のアップデートで上昇しました。

しかしこのサイト、アップデートの度に大きく上下変動を繰り返しているサイトです。

過去数年間の流入数とアップデート日を重ねてみると、アップデート時に大きく変動していることが分かります。

しかし、変動前に大きくサイト構造を変えたり、コンテンツ方針を変えている痕跡は見当たりませんでした。また、巷で言われる「コンテンツSEO施策」、例えば検索意図の解答度やE-E-A-T対応など全てやりきっているサイトです。

このサイトは、アップデートごとに変わるアルゴリズムの方針に翻弄され続けており、単純にサブディレクトリの有無だけでは順位変動を説明できない状況でもあります。

なお、SEOとしてサブディレクトリの貸し借りを行っているサイトは、5月5日のサイト評判の不正使用に対するポリシー施行後の動向を注視する必要があるでしょう。

クレジットカード関連ワード

1,643個のキャッシング・クレジットカードキーワードを分析したところ、以下のような傾向が見られました。

  • サブディレクトリを活用したアフィリエイトサイトの順位変動が目立った
  • 大手Q&Aサイトが軒並み順位を下げた
  • ユーザー満足度の高いサイトが上位を獲得した

それでは、具体的な事例を交えながら、順位変動の背景にある要因を探っていきましょう。

サブディレクトリ型アフィサイト

まず注目されるのが、サブディレクトリを活用したアフィリエイトサイトの躍進です。これらのサイトは、大手メディアのドメイン名の一部を借りて運営されており、親ドメインのオーソリティを活用して短期間で検索上位を獲得しています。

サイト評判の不正使用に対するポリシー施行は5月5日とはいえ、今でもこの様なサブディレクトリ賃借型サイトが急上昇を見せるケースは絶えないようです。

大手Q&Aサイトの下落

次に注目すべきは、とある、あの大手Q&Aサイトの下落です。

今回のアップデートでは、これまでクレジットカードキーワードで上位に位置してきたQ&Aサイトが順位を下げました。

この大手Q&Aサイトといえば、ユーザー同士の質問と回答でコンテンツが生成される、いわゆるUGC(User Generated Content)型のサイトです。これまで、ユーザーの疑問や解答を集めることで、幅広いキーワードで上位表示されてきました。

金融系キーワードのみならず、あらゆるテーマのキーワードで上位に位置しており、ここ数年間は右肩上がりの上昇を見せていました。

しかし、今回のアップデートで、久しぶりに下落に転じています。

また、検索順位別のヒットキーワード数を見ても、今回のアップデート以降、上位キーワードの個数を減らしていることが分かります。

キーワード単位で過去の順位を調べると、順位が顕著に下落しているキーワードと、全く変動していないキーワードが存在しました。

順位下落したキーワードにおいて、どのサイトが上昇したか(このQ&Aサイトと差し替わったか)確認した所、キーワードにより合致する他サイトのページに差し替わっている傾向にありました。

例えば、キーワード「~~ 納税 方法」では、市役所の公的サイトに差し替わっていました。他のキーワードでは、より詳細に詳しく説明したコンテンツサイトのページに順位が差し替わっていました。

このように、検索キーワードへの合致度(適格度)が低い場合、他サイトのページに順位が差し替わっている事が分かりました。

この大手Q&Aサイトは、そのドメイン評価値の高さと幅広いユーザー投稿数の多さから、あらゆるKnowクエリで上位順位を維持していました。しかし、今回のアップデートによって初めて下落に転じました。

これも、アルゴリズムが持つ「検索回答度の識別精度」が変化したことによる変動なのかもしれません。

辞書系サイト

辞書系サイトでは、新興の辞書メディアの多くが軒並み順位を落とした一方、大手の老舗辞書サイトが順位を伸ばしました。

ここ最近、「●●の意味」や「●●の例文」、「●●の由来」など、検索需要が多い調べ物系クエリに焦点を当てたコンテンツ型の新興辞書系サイトが増加しました。

しかし、これら新興サイト群は今回のアップデートで軒並み下落。これに対し、順位が差し替わる形で老舗の辞書サイト群が順位を上げました。

以下は、新興/老舗の辞書サイト群の自然検索流入を表したグラフです。

このアクセス推移の内、上昇しているサイトのみに絞ったグラフが以下の通りです。

昨年の秋に行われたアップデートで上昇し、今回のアップデートもさらに上昇していることが分かります。

これらサイトのすべてが老舗の辞書サイトでした。

逆に、下落傾向にあるサイトに絞ったものが以下のグラフです。

偶然なのか、新興メディアのみが下落傾向にありました。

そして、これら下落サイトも「昨年の夏秋に下落し、今年の春にも再下落」というパターンに該当していました。

では、上昇し続けている老舗辞書サイトは、どのようなページ(コンテンツ)で上位を獲得しているのでしょうか?

例えば、「焼け石に水」の強調スニペット枠に表示されるイミダスのページを見てみましょう。

特徴なのは、ページ内に「焼け石に水」の意味のみを記載している点です。それ以外は記載していない、辞書としての役割に徹しているページでした。

念のため、「焼け石に水」の関連検索を確認したところ、ほかの掛け合わせでも多数の検索が発生しているようです。

従来のSEOでは、「潜在意図も網羅する」という考え方に基づいて、以下のようなテーマにも応えた長文コンテンツの作成が一般的でした。

  • 「焼け石に水」の由来
  • 「焼け石に水」を使った例文
  • 「焼け石に水」に似たことわざ
  • 「焼け石に水」の反対のことわざ

単一の検索ユーザーの疑問に直球で答えるだけでなく、言葉の語源や背景知識など関連する情報まで丁寧に説明する事で、1つのページで幅広く検索意図を満たし、汎用性かつ情報性が高いページを作る手法が存在しました。

しかし、昨今の検索アルゴリズムでは、検索キーワードに直結する回答を上位に表示する傾向も、一部クエリにおいて見られます。

これらアルゴリズムの変化もあってなのか、語句に対する回答のみを分かりやすく短文で表示する辞書サイトは、継続的に順位を維持/上昇傾向にあります。

とわいえ、要素「検索意図に直結するページ構成」のみが上昇するとも言い切れないのが実情です。事実、辞書系クエリにおいても、高いドメイン評価値を持つサイトで、検索意図を網羅した手法で上昇しているサイトも複数確認されています。

例えば、「焼け石に水」のDomaniOggiのページを見ると、関連意図まで意識したページ構成にあると見て取れます。

老舗の大手辞書サイトとは異なり、検索キーワードに対する直結的な回答のみならず関連意図も網羅することで、検索意図への回答度向上を図っているように見受けられます。

そして、これら両サイトのアクセス数も今回のアップデートで上昇傾向にあります。特に、Domaniは3月以降に全体的に上昇傾向にあります。

これら事象からも、単純に「検索意図にシャープに回答しているページが評価される」とは言い切れないのが現状です。

しかし、検索意図を網羅したコンテンツSEO型のアプローチをとっていても、そのドメインに一定の評価がない場合、下落基調にあるという状況にもあります。この事からも、ドメイン評価値が検索順位付けに与える影響は、今なお高いと考えられます。

競合サイトとの比較から、ドメインオーソリティと検索意図合致度の両面が評価に影響することがうかがえました。

老舗サイトの中にもコンテンツを充実させているところとそうでないところがあり、一概にドメインオーソリティだけでは説明できない部分もあります。しかし、強いドメインオーソリティを持つサイトがさらに強くなる傾向は継続しているようです。

美容サイトの事例とUXの重要性

とある美容系サイトでは、一見するとオリジナルのコンテンツを丁寧に作成しているにもかかわらず、昨年の夏秋以降に大きく順位を落とし、今回のアップデートでさらに下落しました。

下落が大きい「昨年の夏秋に下落 ⇒ 今年の春にも下落」パターンに当てはまるサイトで、ここ最近のアルゴリズム変更の影響を大きく受けたサイトの典型例と言えます。

サイトを分析したところ、コンテンツの質やオリジナリティには何ら問題がないように見受けられました。

記事ディレクトリ配下にあるコンテンツは長文で構成されており、専門的な視点からヘアスタイルについて解説。独自の画像も豊富に使われています。

一般的なSEO施策は十分にクリアしているはずのサイトが、なぜここまで下落してしまったのでしょうか。

順位下落の原因を探るべく、過去に上位を獲得していたキーワードを調査を行いました。

検索流入のピーク時の2023年7月に上位を獲得していたキーワードについて、現在の上位ページを確認した結果、mybestや@cosmeといった大手サイトのコンテンツページが上位に位置していることが分かりました。

これら競合サイトページの多くが、美容のハウツーをまとめた記事コンテンツとしてページ構成していました。

あくまでも私の視点ではありますが、現在上位に位置しているページと下落したページのコンテンツを比較したところ、その内容に圧倒的な差は見当たりませんでした。

同時に、ページ単体ではコンテンツの差が無いにも関わらず、当該サイトがなぜここまで大きく順位を下げたのか、コンテンツ単体の差ではなかなか説明が難しいとも感じました。

念の為、テクニカルSEOの不備やDMCA通報の有無、不自然な被リンクやその他スパム要素など、サイト評価に著しく悪影響をもたらす要素も確認しましたが、それら悪材料も確認されませんでした。

そこで、ユーザーの視点に立って考えた結果、1つの仮説が浮かび上がりました。実際にユーザーテストを行い、コンテンツページの使い勝手を確認したところ、記事が長すぎて必要な情報になかなかたどり着けないという課題が明らかになりました。多くのユーザーは、記事を読み切る前に検索結果に戻ってしまう傾向があるようです。

この問題の原因は、多くのハウツーを1つの記事にまとめているため、ページ自体が長くなり、個々のユーザーが探している情報にたどり着くのに時間がかかってしまうことにあります。その結果、検索流入してきたユーザーが目的の情報になかなかたどり着けず、直帰してしまうことが多いのです。

あくまでも参考値ではありますが、Similarwebのエンゲージメント値で比較すると、滞在時間や1ページあたりの平均PV数に大きな差も見られました。

※Similarwebが集計する当該サイトの訪問者数は、比較対象として挙げている他サイトと差もあることから、データの信頼性に影響するデータ母数にも差が生じていると考えられます。したがって、必ずしも上記エンゲージメント数値が正しいとは言い切れませんが、一参考情報として捉えています。(参考: シミラーウェブ vs 直接計測 )

下落サイトの平均滞在時間の短さが顕著であることが明らかになりました。これは、下落サイトにアクセスするユーザーが極めて短い時間でページを離脱している可能性も考えられます。さらに、私が実施したユーザーテストでもこの傾向が確認されました。

しかし、上記の3サイトのコンテンツ構成自体は同一であり、ここまでユーザー行動に大きな差を生じさせる要素は見当たりませんでした。

では、なぜここまでにユーザー行動に差が見られるのか?

ひとつにロングコンテンツでもユーザーが迷わず情報を探索できる導線と、それを実現するUIが備わっているためではないかと考えられます。

順調に推移している競合サイトのページを見ると、以下のような特徴が見られました。

  1. 冒頭に目次が設置されている
  2. コンテンツの見方が解説されている – どのような観点で読めば自分が探している情報を得られるかが説明されている
  3. 検索意図に合わせた情報やランキングの絞り込み機能がある
  4. 必要な情報に素早くアクセスできるUIが実装されている
  5. 情報のリストを掲載

記事自体は非常に長めであるものの、情報のピンポイント提供を重視しています。また、導線や情報設計に徹底的にこだわっているように見受けられました。

特に参考になったのが、mybestさんのページ構成とUIです。

例えば、電動アシスト自転車のおすすめ人気ランキング を見ると、ユーザーが目的の情報へ簡単にアクセスできるように、ページ内の章に素早く移動できるタブが設置されています。また、ユーザーの好みや条件に合わせて商品を探せるように、多数掲載されている商品を絞り込める機能も用意されています。

さらに、他のページに移動することなく商品の詳細情報を確認できるよう、個別の商品詳細情報をモーダル形式で表示できる機能も備わっています。これらの機能により、ユーザーは自分に合った商品を効率的に探すことができ、ページ遷移を減らすことでストレスのない快適な閲覧体験を提供できているのではないかと想定されます。

コンテンツ型ページでありながら、DB型サイトのような性質も持ち合わせており、コンテンツ型とDB型の両方のメリットを兼ね備えたページ機能だと思いました。

ユーザーの検索意図に合わせた絞り込み機能や、必要な情報に素早くアクセスできるUIが実装されていました。記事自体は長めでも、情報のピンポイント提供を重視。導線や情報設計に徹底的にこだわっていると見受けました。

このように、検索意図との合致度に加えて、ユーザー体験の設計が非常に重要だということが分かります。

逆に、「ページ全体を読めば、欲しい情報は見つけられる」というアプローチでは、もはや不十分だと言えます。そして、現代の検索エンジンは、単にコンテンツ品質のみならず、ユーザーの行動を示したインタラクションデータも重視しています。

検索者が持つニーズやモチベーションを深く理解し、それに応えるための機能やページ設計を施すことが、ユーザーの利便性を高め、結果的に上位を獲得するための評価獲得にも繋がるのかもしれません。

これらの改良がなされたページほど、ユーザーの態度が良化し、滞在時間の増加や再検索率の低下などの行動指標にポジティブな変化が表れると予想されます。

したがって、サイト運営者は、検索者の視点に立ち、彼らのニーズを満たすためのページ設計を心がける必要があります。具体的には、以下のような施策が有効だと考えられます:

  1. ユーザー行動データの分析:Google AnalyticsやMicrosoft Clarityなどのツールを使って、ユーザーの行動パターンを詳細に分析し、改善点を見つける。
  2. ユーザーテストの実施:実際のユーザーにサイトを使ってもらい、フィードバックを収集する。
  3. 情報設計の最適化:ユーザーが求める情報に素早くたどり着けるよう、サイト構造やページ内の情報配置を最適化する。
  4. インタラクティブ要素の導入:ユーザーエンゲージメントを高めるため、インタラクティブな機能(商品比較、クイズ、計算ツールなど)を導入する。
  5. モバイルフレンドリー化:スマートフォンでの閲覧に最適化されたデザインや機能を導入する。

これらの施策を通じて、検索者の満足度を高め、ポジティブなユーザー行動を引き出すことが、結果的には検索順位の向上につながると考えられます。サイト運営者は、常にユーザー目線で改善を続けていくことが求められています。

今後のSEO対策で求められること

今回のアップデートのポイントは以下にまとめられるでしょう。

クエリ単位での検索意図との合致度

検索クエリと、コンテンツのマッチ度合いを高めることは引き続き重要です。

ページ全体を読めば検索意図に合致するというだけでは不十分で、ユーザーの検索状況に合うページ機能が求められます。

ユーザー体験の重要性

検索意図との適合性に加えて、ユーザー体験の設計が非常に重要になってきました。記事の読みやすさ、必要な情報への到達しやすさ、ページ間の導線など、ユーザー目線での使い勝手を追求することが求められます。

従来のSEOに、ユーザー行動や心理の分析、それを踏まえたUI設計といった視点をより一層加えていく必要があるでしょう。ページ全体を読まなくても、欲しい情報にストレスなくアクセスできるよう記事を最適化する。ユーザーのエンゲージメントを高め、検索体験に満足してもらえる工夫が問われるのです。

今後は、クリック後のユーザー体験を無視して、上位表示は難しくなると考えられます。

ドメイン評価値の重要性

ドメイン評価値は引き続き重要な要素の1つと考えられます。

評価の高いドメインは、アルゴリズムアップデートでも順位を維持・上昇させやすい傾向にあります。

しかし、サイト評判頼りで上位を維持しているサイトは、2024年5月5日のスパムポリシー施行に伴い、大きく影響を受けるものと想定されます。

スパム的手法のリスクの高まり

サブディレクトリの貸し借りを始めとするスパム的手法は、今後さらにリスクが高まると予想されます。定期的に入れられるスパム対策は、より厳格さを増しています。特に、2024年5月5日に施行される新スパムポリシー「サイト評判の不正使用」には要注目です。

違反サイトへの罰則適用が現実のものとなるでしょう。スパム的手法に頼らず、ユーザーファーストの価値あるコンテンツ作りに注力することが賢明だと考えられます。

おわりに

2024年3月のアップデートは、スパム対策とアルゴリズム変更が組み合わされた複合的な内容でした。基本的なSEOの指針に大きな変更はありませんでしたが、クエリ単位での変動や大手サイトへの影響など、局所的には大きな変化が見られた形です。

アップデートと合わせて、Googleの検索部門トップにエリザベス・リード氏が就任するなど、Google社内の人事異動もありました。

リード氏は就任後のインタビューで、スパムサイト対策への意欲を見せるとともに、AI検索への対応を進めていく方針を明らかにしています。特にAIを用いた検索機能「SGE」の拡張に意欲的で、これまでのベータ版の好評を受けて、徐々に適用範囲を広げていくことを示唆しました。

SEO業界は常に変化し続けています。50位だった順位が、1つのアップデートで1位に躍り出ることもあれば、その逆もありえます。

だからこそ基本に立ち返りつつ、ユーザー目線でのコンテンツ設計を心がけることが何より重要だと再認識するタイミングでもあります。

AIの台頭により、コンテンツ生成の敷居は確実に下がっています。しかし、AIで量産されたコンテンツは、品質の面で人間が作ったものに及ばないことが多いのが実情です。AIツールも今後は進化を遂げるでしょうが、細部の質感やニュアンスにおいて、人の手を介したコンテンツの優位性は当面揺るがないはずです。

変化の中にあっても普遍的に求められるのは、”ユーザーの課題を解決し、満足感を与えるコンテンツ”ではないでしょうか。検索意図との合致はもちろん、そこから一歩踏み込んで、ユーザーの課題解決や、時には心に響く価値提供を目指す。それこそが、これからのWebサイト運営に求められる姿勢だとも言えます。

アルゴリズムは日々進化を遂げ、新たな手法が登場しては廃れていく。そうした中で、ユーザーファーストの姿勢だけは揺るがないものでありたい。2024年3月のアップデートを経て、改めてそう感じました。

変革の時代だからこそ、基本に立ち返る。王道を愚直に歩む。そうした姿勢が、これからのSEOには一層強く求められているのかもしれません。

コンテンツで勝負する。AI活用などレバレッジは大事だけど、その前提となる “コンテンツの価値”を磨き続けることが大切だ。そんな原点回帰を促すアップデートでもあったように思います。

AIの進化、新たなスパム手法など、目まぐるしい変化は続くでしょう。1つ1つのトレンドに右往左往するのではなく、ユーザー価値の最大化という軸をぶらさない。その姿勢こそが、変化の荒波を乗り越える原動力になるはずです。ユーザーとともに歩み、ユーザーに必要とされるページやコンテンツを追求する。そのために、私たちができることは何か。1つひとつ、着実に積み重ねていきたいと思いました。

長くなりましたが、2024年3月のGoogleアップデートの解説は以上になります。最後までお読みいただき、ありがとうございました。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
AIによるコンテンツ作成は駄目なのか?https://seolab.jp/blog/ai-content-creation-validity/Mon, 01 Apr 2024 00:15:18 +0000https://seolab.jp/blog/?p=2724

先日の動画「スパムアップデートが終了!下落サイトの共通点とは!?」のコメント欄で、このようなコメントをいただきました。 「AIに記事を書かせたサイトは悪と理解されてるような感じがしました。私のブログはほぼAIに記事を書か ... ]]>

先日の動画「スパムアップデートが終了!下落サイトの共通点とは!?」のコメント欄で、このようなコメントをいただきました。

「AIに記事を書かせたサイトは悪と理解されてるような感じがしました。私のブログはほぼAIに記事を書かせてもらってるんですが、アプデの影響は今のところ一切ありません」

このコメントについて、私の考えを述べさせていただきます。

AIも正しく使えば有効

私は、AI=駄目と思っているわけではありません。AIも正しく使えば有効だと考えています。実際、私もこのブログの一部の記事ではAIを使って執筆しています。

AIで文章を書かせたからといって、すぐに順位が下がるというわけではないのです。

では、何がNGなのでしょうか。ひとつに、SEOハック的なAIの使い方です。

とりあえずChatGPTに大量に記事を書かせて、流入を獲得し売上を上げるような、ハック的な使い方は不適切だと考えています。

実際、そういったサイトは、2024年3月のコアアルゴリズムアップデートやスパムアップデートで軒並み流入数を減らしているのです。

GoogleのAI生成コンテンツに関するガイダンス

では、GoogleはAI生成コンテンツに対してどのような見解を持っているのでしょうか。

Googleが公開している「AI生成コンテンツに関する検索ガイダンス」には、次のように書かれています。

「制作方法問わず、高品質なコンテンツは評価する」
「自動生成のものを含め、自動化を利用したコンテンツ全てがスパムであるとは限りません」

つまり、AIで作られたコンテンツ全てがスパムというわけではないのです。

では、どういったAIの使い方がよくないのか。それについても、Q&Aが用意されています。

Q. AI生成コンテンツは、Googleの検索のガイドラインに抵触しますか?
A. 検索ランキングの操作を主な目的として生成されたコンテンツは、スパムポリシーに違反とみなされます。

Q. AIを使用してコンテンツを作成する必要はありますか?
A. AIが重要な役割を果たすと考えられる場合は、AIの使用を検討するのもよいでしょう。ただし、AIを検索エンジンのランキング操作目的のために、安価な方法として考えるのは良くありません。

Q. AIが生成するコンテンツは、検索で上に表示されますか?
A. AIを使用したからといってランキングに関して特別なメリットがあるわけではありません。検索順位を上げるためには有用で有益なオリジナルコンテンツで、EATを満たすものは検索で上位表示される可能性が高くなります。

これらの回答から分かるように、AIそのものが駄目というわけではありません。

基本的には、検索者の課題解決になるような有益なページが評価されます。AIを使おうが使うまいが関係ないのです。

一方で、検索ユーザーをサポートする為の利用ではなく、検索順位を操作する目的での使用は、スパムポリシー違反とみなされます。

ChatGPTに大量の記事を書かせ、それをコピペしてサイトに大量に公開し、流入獲得だけを目的とするようなサイトは、今回のスパムアップデートで明確にGoogleから処置(手動対策や順位下落調整)が行われているのです。

適切なAIの使い方とは

では、SEOにおいてAIをどのように活用すればよいのでしょうか。

私なりの案を一部述べさせていただきます。

  • 検索意図の仮分析をしてもらう
  • 記事構成案のサポートをしてもらう
  • イントロ文章やまとめ文章の草稿を作ってもらう
  • 取り上げる商品の説明文の仮案を作ってもらう

こういった「仮案」作りに、AIは非常に頼もしいアシスタントになると思います。

例:記事構成案の草稿を作ってもらう

例えば、ある検索キーワードに関する記事を書く際、そのキーワードを検索するユーザーがどういった意図を持っているのか、サクッと分析したい時があります。

その時は、キーワードデータをAIに読み込ませ、記事構成案を作ってもらうのです。

AIが出してくれた案を参考に、自分でも加筆修正を加えていく。そういった形でAIをサポーターとして活用するのは有効だと思います。

例:金融系サイトの商品紹介文を書いてもらう

また、新商品を取り上げるブログの場合、商品の説明文の草稿をAIに作ってもらうのも一案です。

例えば、金融商品を紹介するコンテンツメディアを運営していたとします。そのサイトで、新しい投資信託を取り上げる事となりました。

普段なら、投資信託の目論見書を隅々まで読んで、その商品の特性や注意点、メリットなどを記事に書かなければなりません。

ですが、その商品説明コンテンツの草稿をAIに書いてもらえば、時間短縮になります。

投資信託の記事であれば、目論見書PDFをAIに渡し、指定した項目に沿って記事の草稿を書いてもらいます。

あとは、自分はその草稿をベースに、読者目線で加筆修正していけばいいのです。

コンテンツ作成の下準備をAIに任せ、自分は編集者やチェック役に回る。そんな役割分担をしながら、一つのコンテンツを磨き上げていく。

そういったAIの使い方は、今後ますます有効になってくるのではないでしょうか。

まとめ

  • AIを使ったコンテンツ作成が全て駄目というわけではない
  • 検索順位操作目的のSEOハック的な使い方は、スパムとみなされる
  • 検索者の課題解決につながる有益なコンテンツ作りが大切
  • その過程でAIを活用するのは問題ない
  • 人間は編集者となり、AIはコンテンツの草稿を書く。そんな役割分担がよい

AIの登場で、不適切な使い方をするサイトも増えてきました。しかし今回のスパムアップデートにより、Googleは明確にそういったサイトへの対策を打ち出しました。

大切なのは、常にユーザー目線に立ち、有益なコンテンツを提供し続けること。

その過程でAIを適切に活用することは、これからのSEOに欠かせない要素になっていくのではないでしょうか。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
【続報】Googleスパムアップデートを完了、その影響は?https://seolab.jp/blog/google-spam-update-impact-2024-03/Mon, 25 Mar 2024 05:28:17 +0000https://seolab.jp/blog/?p=2696

先日、Googleから新しい発表がありました。3月6日にロールアウトされたスパムアップデートが、3月21日に完了したとのことです。 今回は、そのスパムアップデートの影響について、3月24日時点での状況をお伝えします。 3 ... ]]>

先日、Googleから新しい発表がありました。3月6日にロールアウトされたスパムアップデートが、3月21日に完了したとのことです。

今回は、そのスパムアップデートの影響について、3月24日時点での状況をお伝えします。

3つの「不正使用」をスパムポリシーに追加

今回のスパムアップデートと同時に、3つの「不正使用」がスパムポリシーに追加されました。サイト評判、期限切れドメイン、スケールコンテンツの不正使用です。

このうち、サイト評判の不正使用は2024年5月5日から執行されます。したがって、3月6日から21日の間に発生した変動影響は、期限切れドメインとスケールコンテンツの不正使用の2つが先んじて考慮された新スパムアルゴリズムによるものと想定されます。

スパムアップデートの影響を受けたサイト

実際に、この期間中に流入数が大幅に減少したサイトが多数確認されました。

中には流入数が半減したサイトもあれば、ゼロになってしまったサイトもありました。では、具体的にどのようなサイトが影響を受けたのでしょうか。

影響を受けたサイトに共通していたのは、コンテンツの質の低さです。キーワードを詰め込んだだけの薄いコンテンツや、他サイトから盗用したコンテンツ、AIによる自動生成が疑われるコンテンツなどです。また、中古ドメインを使って、以前の評判を悪用しているサイトも見られました。

一方で、コンテンツの質が高いと思われるサイトが下落したケースもありました。これについては後述します。

中古ドメインの不正使用が疑われるサイト

スパムアップデートの影響が顕著だったのは、スケールコンテンツや盗用コンテンツ、中古ドメインの不正使用が疑われるサイトです。

これらのサイトは、手動ペナルティを受けてインデックスから完全に消える場合がありました。

例えば、下記はとあるトレンドブログサイトのアクセス推移を表したグラフです。

このサイトのドメインは約10年以上前から運営されており、もともとは企業のブランドサイトでした。

しかし、昨年から別のオーナーに渡り、低品質なトレンドブログに切り替わりました。

別のオーナーにドメインが渡って以降、サイト内のページ品質も低下しました。

企業ブランドサイトとして運営された時のテーマとは全く異なり、より検索流入が獲得できる芸能人系のトレンドブログ記事が大量に詰め込まれていました。

キーワードを詰め込んだ薄いコンテンツばかりで、元々のドメインの評判を悪用していたことから、今回の手動対策によってインデックスごと消されたと想定されます。

盗用、スケールコンテンツの不正使用

下記は、とある歴史系のコンテンツサイトのアクセス推移を表したグラフです。

このサイトも同じく、3月のスパムアップデート以降、手動対策によってインデックスから消されたものと想定されます。

とわいえ、サイトそのものに大きな欠点があるようにも見られませんでした。

各記事ページに掲載されているコンテンツも読み応えがあり、内容やオリジナリティも高いように見受けられました。

念の為、AIによって執筆されたコンテンツか否かを確認すべく、AI検出ツールで確認しましたが、AI執筆の可能性もほぼゼロでした。

・コンテンツの質も高い
・AI執筆の可能性も低い
・中古ドメイン不正使用もなさそう

こうなると、なぜこのサイトがインデックスから消されるほどの重い処分を受けるのか、なかなか説明が付きづらい状態でした。

念の為、他サイトからの盗用(コピペ)を確認したところ、コンテンツの87%が他サイトから盗用されていることが判明。

あらゆるサイトからコンテンツを部分抜粋し、記事を作成していたようです。

DMCAの申し立ても受けていた事からGoogleの知るところとなり、手動対策という重い処分を受けたのだと考えられます。

コンテンツ質が低いサイトが下落

手動ペナルティほどではないものの、コンテンツの質が低いサイトが下落調整を受けるケースもありました。

以下は、とあるコンテンツ型の比較サイトのアクセス推移を表したグラフです。

3月6日以降、アクセス数を急激に落としている事が分かります。

ページ内容を確認したところ、その内容が極めて普遍的であり、必ずしも検索意図を満たしきっているとは言えないものばかりでした。

見出しに「○○する方法」と書いておきながら、中身は箇条書きで表面的な情報を羅列しているだけでした。このようなコンテンツでは、ユーザーの検索意図を満たせていないと判断され、今回のアルゴリズム変更で、検索順位が下がったと考えられます。

また、このコンテンツの作り(型)から、AIによるコンテンツ生成が疑われる可能性もあります。

実際に、このページのコンテンツをAI検出ツールでチェックしたところ、「61%がAIによって書かれた可能性がある」と表示されました。

AIが生成するコンテンツの特徴として「定型コンテンツ」があり、その型と類似すると「AI生成の可能性」として検出されてしまうようです。

一見読みやすい文章でも、型に沿って書かれ、専門知識に基づいた有用な情報が提供されていなければ、AI生成の疑いがかけられるのでしょう。

ただし、これらのサイトの下落が、スパムアップデートによるものなのか、同時期に実施されたヘルプフルコンテンツアップデートによるものなのかは判断が難しいところです。

いずれにせよ、コンテンツ品質の低さが手動対策のいち要因につながったことは間違いなさそうです。

コンテンツ質が高いサイトも下落!?

興味深いのは、コンテンツの質が高いと思われるサイトが下落したケースもあったことです。

以下は、とあるコンテンツサイトのアクセス推移グラフです。

このサイトは専門的な知識を持ったライターが書いた良質な記事を掲載していました。記事の内容も充実しており、オリジナルの画像も豊富に使われていました。

AIによる自動生成や他サイト盗用の痕跡も確認されず、完全にオリジナルで書かれているようです。

また、私が読んだ限りコンテンツの質も高く、検索意図も満たせるページだと見受けました。

さらに、このコンテンツを3つのAI(Gemini、GPT-4、Claude3)にも評価してもらいましたが、3つとも「ページコンテンツ質は高い」と評価しました。


・コンテンツは完全オリジナルで作成
・検索意図も満たしており、分かりやすく、ユーザーの課題解決に直結するページ品質
・スパムポリシー違反の痕跡も見当たらない
・YMYL領域でも無く、EEATの欠如も見当たらない
以上、このようなサイトがなぜ下落したのか….その理由ははっきりしませんが、一つの可能性としては、ユーザー行動が関係しているのかもしれません。

つまり、コンテンツは良さそうに見えても、肝心のユーザーが満足していない、あるいは役に立つ情報が不足しているために、滞在時間が短かったり、直帰率が高かったりするのです。

こうしたユーザー反応や体験の悪さが、結果的にサイト評価を下げる因子になったのかもしれません。

また、この様な「一見すると、非の打ち所がないサイト」が急落しているケースが複数確認されました。それらサイトの多くが、昨年の秋頃に急落し、今回のアップデート前期(3月6日~21日頃)でも急落するなど、2段階の下落を見せています。

もしかしたら、これら2段階で下落を見せているサイトには、表層的なページ品質以外の要素で低評価を受けたのかもしれません。その一つに、ユーザー行動も含まれている可能性も考えられるでしょう。

ユーザー行動と検索順位について

一見共通点が見られないサイトでも同様の現象が起きているのは、ユーザー行動が関係している可能性があるのかもしれません。

ページ品質は良さそうに見えても、ユーザーが満足していないサイトは行動データ上でその差が表れ、アルゴリズムによって評価を押し下げているのかもしれません。

滞在時間が極端に短い、再検索が走ってしまうなど、ユーザー体験の悪さを示すデータは、サイトの評価を大きく左右する可能性も考えられます。

これを確かめるため、今後はクリックデータやサードパーティデータなどを活用し、ユーザー行動と検索順位の相関性について調査していきたいと思います。

4月上旬にはアップデートが完全に終了するはずなので、そのタイミングで改めて分析結果をシェアできればと考えています。サイト運営者の方々も、ユーザー目線でコンテンツを改善し、ユーザー体験の向上に努めていただければと思います。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
アクセス数を調べる方法とは?調べられるツールも3つ紹介https://seolab.jp/blog/access-check-methods-and-3-tools/Fri, 22 Mar 2024 11:48:37 +0000https://seolab.jp/blog/?p=2522

自社サイトの改善点を見つけるには、アクセス数を調べるのが近道です。 どの対策が効果を出していて、どの対策が効果を出していないのか、見極めるヒントが得られます。 また、「自サイトにとって何が足りないのか」を突き止めるには、 ... ]]>

自社サイトの改善点を見つけるには、アクセス数を調べるのが近道です。

どの対策が効果を出していて、どの対策が効果を出していないのか、見極めるヒントが得られます。

また、「自サイトにとって何が足りないのか」を突き止めるには、競合サイトのアクセス数調査が有効です。

そこで今回は、自社サイトのアクセス数を調べる方法を画像つきで解説していきます。

競合サイトのアクセス数調査におすすめのツールやアクセス数の目安を算出する方法もご紹介していますので、ぜひ参考にしてください。

アクセス数とは?

アクセス数とは、「ユーザーがWebサイトを訪問・閲覧した数」を指しており、効果検証や改善点を探るために欠かせない数値です。

通常、「ユーザー数」「セッション数」「PV数」を一括りに「アクセス数」と呼んでいますが、それぞれ意味合いが異なります。

アクセス数の種類意味
ユーザー数一定の期間内にWebサイトを訪問したユーザーの数
セッション数Webサイトを訪問してから離脱するまでの一連の流れ(セッション)をカウントした数
PV数Webサイト内のページが表示された回数

ここからは以下の4項目それぞれについて、より詳しく解説していきます。

  • ユーザー数とは?
  • セッション数とは?
  • PV数とは?
  • PV数とセッション数のカウント方法を比較

では順番に見ていきましょう。

ユーザー数とは?

ユーザー数とは、一定の期間内にWebサイトを訪問したユーザーの数を指しており、「訪問者数」や「ユニークユーザー数(UU数)」とも呼ばれています。

ただし、ユーザー数のカウント対象は「実在の人物」ではありません。

ユーザー数は、あくまで「ブラウザのCookie」でカウントするため、

  • 1人の人間が同じブラウザから複数回訪問した場合のユーザー数→1カウント
  • 1人の人間が2種類のブラウザから訪問した場合のユーザー数→2カウント

となります。

セッション数とは?

セッション数とは、ユーザーがWebサイトを訪問してから離脱するまでの一連の流れ(セッション)をカウントした数値です。

ユーザーが1分で離脱しようと15分後に離脱しようと、同じ1セッションとしてカウントします。

反対に、一度離脱したユーザーが再訪問した場合のカウント数は2セッションです。

なお、「最初のアクセスから30分以内」に再度アクセスした場合は、1セッションとしてカウントします。

PV数とは?

PV(Pageview:ページビュー)数とは、Webサイト内のページが表示された回数です。

たとえば、1人のユーザーが3ページを閲覧した場合、Webサイト全体のPV数は3となります。

セッション数よりもPV数の方が大幅に多い場合は、最初にアクセスしたページだけでなくサイト内の別ページも閲覧されている、つまり内部リンクによる導線がうまく整備されている証です。

一方、PV数とセッション数が同等の場合、ユーザー1人あたりが閲覧しているページが少ないと判断できます。

PV数とセッション数のカウント方法を比較

PV数とセッション数は混同されやすい傾向があります。

そこで以下の表では、PV数とセッション数のカウント方法が簡単に見分けられるよう、いくつかのパターンをまとめてみました。

ユーザーの行動PV数セッション数
Aさん最初のアクセスから、30分以内に再訪問21
Bさん最初のアクセスから、30分以降に再訪問22
Cさん1日に3回、30分以内のスパンでアクセス31
Dさん1日に5回、1時間スパンでアクセス55

自社サイトのアクセス数を調べられるツール4選

自社サイトのアクセス数を調べるには、以下4種類のツールがおすすめです。

Google Analytics4(GA4)ユーザー数、セッション数、PV数を細かく把握できる無料アクセス解析の定番ツール。2023年7月1日に従来のユニバーサルアナリティクス(UA)から完全移行した最新版
Search Console検索経由の「クリック数」のみではあるが、アクセス数が大半のサイトにとって正確に測れる
plausibleGA4などと比較して、かなりシンプルなアクセス解析。非常に使いやすく、また訪問者のプライバシーも考慮した有料版のアクセス解析ツール
アクセス解析研究所アクセス数だけでなく、訪問ユーザーの追跡も可能。日本企業が開発しているため、操作画面などが日本人にとって扱いやすく有料版と無料版がある

上記の内、最もポピュラーで多くのSEO関係者に愛用されているツールは「Google Analytics4(GA4)」です。

ここからは、Google Analytics4を使ったアクセス数の調べ方を解説していきます。

自社サイトのアクセス数を調べる方法

自社サイトのアクセス数を調べる方法について、以下の8項目に分けて説明していきます。

  • まずはGoogleアナリティクス4を導入する
  • ユーザー数を調べる方法
  • セッション数を調べる方法
  • PV数を調べる方法
  • 流入経路別のアクセス数を調べる方法
  • キーワード別のアクセス数を調べる方法
  • 期間を指定してアクセス数を調べる方法
  • 過去の期間とアクセス数を比較する方法

ではさっそく、順番に見ていきましょう。

まずはGoogleアナリティクス4を導入する

Googleアナリティクス4を導入する手順は、以下の通りです。

  1. Googleアナリティクス4にログインし、「測定を開始」をクリック
  2. 任意のアカウント名を設定
  3. 「アカウントのデータ共有設定」の各項目にチェックを入力
  4. 「プロパティの設定」から、任意のプロパティ名・タイムゾーン・通貨を設定
  5. 「ビジネスの説明」と「ビジネス目標を選択する」を選択
  6. プラットフォームで「ウェブ」を選択
  7. WebサイトのURLと任意のストリーム名を入力し、「ストリームを作成」をクリック
  8. 「タグの実装手順を表示する」をクリック
  9. 「手動でインストールする」をクリック
  10. タグをコピーし、自社サイトのHTMLエディターの<head>内に貼りつける

ユーザー数を調べる方法

ユーザー数を調べる方法について、以下の2項目に分けて解説していきます。

  • サイト全体のユーザー数
  • ページ別のユーザー数

サイト全体のユーザー数

GA4でサイト全体のユーザー数を調べる方法は、非常に簡単です。以下の通り、最初に開くホーム画面にサイト全体のユーザー数が表示される仕組みになっています。

サイト全体のユーザー数

また、指標のプルダウンから「セッション数」や「PV数」も確認できます。

ユーザー数の指標のプルダウン

データを表示する期間はデフォルトで「過去7日間」になっていますが、左下にあるプルダウンから「28日間」や「カスタム」などを選択することも可能です。

データを表示する期間

ページ別のユーザー数

ページ別のユーザー数(UU数)を調べる手順は以下の通りです。

  1. 画面左側のレポートメニューから「エンゲージメント」をクリック
  2. 「ページとスクリーン」をクリック
ページ別のユーザー数(UU数)

移行先の画面では、各ページの「ユーザー数」や「PV数(表示回数)」などをチェックできます。

セッション数を調べる方法

セッション数を調べる方法について、以下の2項目に分けて解説していきます。

  • サイト全体のセッション数
  • ページ別のセッション数

サイト全体のセッション数

Webサイト全体のセッション数は、最初に開くホーム画面、もしくは以下の手順で調べることができます。

  1. ダッシュボードから「レポート」を選択
  2. 「ライフサイクル(Life cycle)」から「集客」を選択
  3. 展開された項目の中から「トラフィック獲得」を選択
Webサイト全体のセッション数

ページ別のセッション数

ページ別のセッション数を調べる手順は、以下の通りです。

  1. ダッシュボードの「レポート」から「エンゲージメント」を選択
  2. 「ランディングページ」を選択
ページ別のセッション数

各LP(ライティングページ)のセッション数が一覧表示され、「どのページからセッションが始まったのか」を確認できます。

PV数を調べる方法

PV(ページビュー)数を調べる方法について、以下の2項目に分けて解説していきます。

  • サイト全体のPV数
  • ページ別のPV数

サイト全体のPV数

GA4でWebサイト全体のPV数を確認する方法は、いくつか用意されています。たとえば、最初に開くホーム画面、もしくは以下の手順でも調べることができます。

  1. ダッシュボードの「ライフサイクル(Life cycle)」から「エンゲージメント」を選択
  2. 「概要」をクリック
GA4でWebサイト全体のPV数を確認する

上記画像の通り、GA4ではページビュー数の名称が「表示回数」として表示されます。

この画面では「1の位までの正確なPV数」を調べることはできませんが、万単位の大まかな表示回数を把握したいときに便利です。

ページ別のPV数

ページ別のPV数を調べる手順は、以下の通りです。

  1. ダッシュボードの「ライフサイクル(Life cycle)」から「エンゲージメント」を選択
  2. 「ページとスクリーン」をクリック

上記の画面では、ページごとの「表示回数」に加え「平均エンゲージメント時間」など、より詳細なデータを確認できます。

流入経路別のアクセス数を調べる方法

GA4で流入経路別のアクセス数を調べる方法を、以下の2項目に分けて解説します。

  • サイト全体の流入チャネル別アクセス数
  • ページ別の流入チャネル別アクセス数

サイト全体の流入チャネル別アクセス数

自社サイト全体のアクセス数を流入チャネル別に調べる手順は、以下の通りです。

  1. ダッシュボードの「ライフサイクル」から「集客」をクリック
  2. 「トラフィック獲得」をクリック
自社サイト全体のアクセス数を流入チャネル別に調べる手順

調査できる流入元チャネルの主な種類は、以下の通りとなります。

  • Organic Search(自然検索):GoogleやYahooなど、広告リンク以外からの流入
  • Paid Search(有料検索):検索連動型広告(リスティング広告)からの流入
  • Direct(ノーリファラー):URLの直接入力やブックマークからの流入
  • Referral(参照):他サイトの広告以外のリンクからの流入
  • Organic Social (オーガニックソーシャル):SNSの広告以外のリンクからの流入
  • Paid Social(有料ソーシャル): SNS広告のリンクからの流入
  • Email(メール):メール内のリンククリックからの流入
  • Organic Shopping(有料ショッピング):ECサイトの広告以外のリンクからの流入
  • Organic Video(オーガニック動画):動画サイトの広告以外のリンクからの流入

ページ別の流入チャネル別アクセス数

各ページのアクセス数を流入チャネル別に調べる手順は、以下の通りです。

1.ダッシュボードの「ライフサイクル」から「集客」をクリック

2.「ユーザー獲得」をクリック

「ユーザー獲得」をクリック

3.「+」クリックし、「ランディングページ+クエリ文字列」を選択

「ランディングページ+クエリ文字列」を選択

キーワード別のアクセス数を調べる方法

まず大前提として、GA4でキーワード別のアクセス数を調べるには、「Google Search Console」と連携しておく必要があります。

  1. GA4の管理メニューへアクセス
  2. プロパティの項目を確認し、「Search Consoleのリンク」をクリック
  3. 右上の「リンク」をクリック
  4. 「アカウントを選択」をクリック
  5. 該当プロパティの欄にチェックを入れて「確認ボタン」をクリック
  6. 「次へ」のボタンをクリック
  7. ウェブストリームの選択から「現在のストリーム」を選択
  8. 「送信」をクリック
  9. 画面遷移後、「リンク作成済み」が表示されていれば完了

続いて、キーワード別のアクセス数を調べる手順は以下の通りです。

  1. レポートの「Search Console」から「クエリ」を選択
  2. 流入のきっかけとなった検索クエリが一覧表示される
  3. 検索クエリごとに、クリック数・表示回数・平均順位などが確認できる

期間を指定してアクセス数を調べる方法

期間を指定してセッション数やPV数などのアクセス数を調べたいときは、以下の手順で進めます。

  1. 各画面の右上にある「過去28日間」をクリック
  2. 確認したい期間を指定
  3. 「適用」をクリック
期間を指定してアクセス数を調べる方法

調べる期間はプルダウンで表示されたカレンダーの左側メニューから選択、もしくは任意で指定することが可能です。

調べる期間

過去の期間とアクセス数を比較する方法

  1. 各画面の右上にある「過去28日間」をクリック
  2. 確認したい期間を指定
  3. プルダウン内の「比較」をクリック
  4. 「比較」の下に表示された項目から選択、または任意で比較期間を入力
  5. 「適用」をクリック
過去の期間とアクセス数を比較

なお、以下の表示画面は、流入経路を「昨年同月」で比較した結果です。

流入経路を「昨年同月」で比較した結果

他社サイトのアクセス数を調べられるツール3選

Googleアナリティクス4は自社サイトのアクセス数を調べる解析ツールとしては非常に優秀ですが、競合サイトのアクセス数を調査することはできません。

そこでこの章では、他サイトのアクセス数を調査できるおすすめツールとして、以下の3種類をご紹介します。

  • Keywordmap(有料)
  • ahrefs(有料)
  • SimilarWeb(無料)

3つのツールにはアクセス数を調べるうえでどのような強みがあるのか、順番に見ていきましょう。

Keywordmap(有料)

Keywordmap

出典:Keywordmap

最初にご紹介するのは、AIベースの精密なアクセス解析によって競合他社の成功要因を突き止める「Keywordmap」です。世界最大級の日本語データ量を誇るSEOツールであり、具体的には以下のような機能が装備されています。

  • SEO経由のアクセス数の調査
  • ページ単位やディレクトリ単位でのアクセス数も調査
  • どのキーワードで流入しているか、検索経由のアクセスも調査
  • コンテンツや広告など、競合他社の「効果的な施策」も調査
  • 調査サイト数に制限がないため、自社サイト・競合サイトを問わず徹底分析

つまり、Keywordmapなら検索経由のアクセスを調べることができるのはもちろん、他サイトにとって最も集客に貢献している箇所まで詳細に調査することが可能なのです。

さらに、どのような顧客(ユーザー)が流入しているのかも調べることができます。まずは「1週間の無料トライアル」で競合サイトの分析を試してみましょう。

Keywordmap公式サイト

ahrefs(有料)

ahrefs

出典:ahrefs

海外のアクセス数を調べるなら、シンガポール発のアクセス分析ツール「ahrefs」がおすすめです。データの更新速度が非常に早いため、常に最新のアクセス状況を調べることができます。なお、ahrefsの主な調査項目は以下の通りです。

  • 流入キーワード
  • オーガニックトラフィック数の推移
  • 検索順位の変動
  • 被リンクの獲得数

一般的なアクセス数だけでなく、競合他社サイトのトラフィックや被リンク調査まで可能なのが強みです。ただし、あくまでも海外ツールのため、日本語データの精度や量は十分とはいえません。国内の競合サイトを調査する場合は、日本語のアクセス解析に長けている解析ツールを利用した方がよいでしょう。

ahrefs公式サイト

Similarweb(無料)

Similarweb

出典:Similarweb

イスラエル発のSimilarwebは、あらゆる経路のアクセス数を調査できる解析ツールです。サイト全体のアクセス数を把握する調査に適しており、以下のような項目を調べることができます。

  • オーガニック検索からの流入数
  • 広告からの流入数
  • SNSからの流入数
  • ページビュー数
  • 平均利用時間
  • 直帰率

ただし、利用者やパートナー企業などデータを収集する範囲が限られているうえ、機械学習による統計データとして算出された結果は、あくまで「推定値」です。業界の傾向を推測する際には役立ちますが、正確なアクセス数を調査することはできません。

Similarweb公式サイト

アクセス数を調べるときのポイント

アクセス数を調べるときのポイントとして、以下の3点が挙げられます。

  • 1つの指標だけで判断するのはNG
  • 流入経路を無視しない
  • アクセス数の目安を算出する方法

では、順番に見ていきましょう。

1つの指標だけで判断するのはNG

「ユーザー数」「セッション数」「PV数」の内、1つの指標だけでは自社サイトの状況を正しく判断することはできません。

なぜなら、3つの指標をバランスよくチェックしなければ、異常なアクセスの有無を確認できないからです。

たとえば、PV数だけが大幅に増加している場合は必ずしも望ましい状況とはいえません。

コンテンツ内容がわかりにくいため同一ユーザーが繰り返し訪問している、またはリファラースパム(参照元情報を意図的に残す悪質な行為)によって一時的にアクセス数が増加しているなど、ネガティブな要因も考えられます。

流入経路を無視しない

アクセス解析を行う際、「数」にばかり囚われすぎて「流入経路(チャネル)」を軽視すると、どの施策が効果を出しているのか、反対にどの施策が効果を出していないのかが判断できません。

たとえば、オーガニック検索からの流入数が増加していれば、SEO対策が効果を発揮していると判断できます。

一方、ユーザー数は増加しているもののオーガニック検索からの流入数が伸びていない場合は、SEO対策を改善すべきです。

アクセス数と流入経路をセットで調べることで、「今とるべき対策」が見えてきます。

アクセス数の目安を算出する方法

競合サイトのアクセス数を調査して目ぼしいキーワードを発見したなら、そのキーワードを自社で取り扱った場合の想定流入数を事前にリサーチしておきましょう。

想定流入数は、「キーワードの検索ボリューム×順位の平均CTR」の式で算出できます。

まとめ:アクセス数を調べる習慣をつけておこう

今回は、「自社サイトのアクセス数」と「競合サイトのアクセス数」を調べる方法について解説してきました。

自社サイトのアクセス解析は、改善点を見つける近道です。

また、競合サイトのアクセス数を調査して自社サイトと比較することで、より効率的な対策を講じることができます。

自サイト・競合サイトともに、アクセス数を定期的に調べる習慣をつけておきましょう。

]]>
記事のリライトとは?目的やメリット・デメリット、成果を出すコツなどを解説https://seolab.jp/blog/article-rewrite-purpose-benefits-tips/Fri, 22 Mar 2024 11:48:18 +0000https://seolab.jp/blog/?p=2213

記事のリライトは、SEO効果・集客数の増加・CVRの改善などが期待できる、コンテンツマーケティングの作業です。 ただし、やり方を間違ってしまうと検索順位が下落する「諸刃の剣」ともいわれています。 そこで本記事では、なぜリ ... ]]>

記事のリライトは、SEO効果・集客数の増加・CVRの改善などが期待できる、コンテンツマーケティングの作業です。

ただし、やり方を間違ってしまうと検索順位が下落する「諸刃の剣」ともいわれています。

そこで本記事では、なぜリライトは新規記事を追加するよりコスパやタイパが高いのか、ブログ記事の正しいリライト方法などを解説します。

記事のリライトとは?

リライト(rewrite)とは、すでに公開されている記事を「読者にとってより役に立つ内容」にブラッシュアップする作業です。

以下の作業を「読者目線」で行うことで、現状よりもユーザーニーズが満たせる記事に改善できます。

タイトル記事の趣旨が、端的に伝わるタイトルに修正する
見出し・不要な見出しを削除する
・必要な見出しを追加する
・関連性の高いキーワードを追加する
※記事の構成を見直す
本文・古くなった情報を、最新の情報に差し替える
・不足している情報を追記する
・分かりやすい言い回しに書き直す
・解説用のイラストや画像を追加する

なお、構成の見直しや追加すべきキーワードの洗い出しを行う際は、以下の記事を参考にしてください。

記事をリライトする目的

記事をリライトする目的は、あくまで読者にとってより良い情報を提供し、ユーザー満足度を向上させるためです。

ただ、コンテンツを最新化することで結果的に順位復活も見込め、流入数の増加につながります。

記事をリライトするメリット

記事をリライトする主なメリットとして、以下の4つが挙げられます。

  • 成果が現れるのが早い
  • コスパが高い
  • 成果の予測・比較がしやすい
  • サイト全体の評価が上がる

ここからは、上記4つのメリットについて個別に解説していきます。

成果が現れるのが早い

1つ目のメリットは、「新しい記事を書く」よりも「既存の記事を改善する」方が、成果が出るまでの時間を短縮できるという点です。

まずは、新規コンテンツで成果が出るまでのプロセスをおさらいしてみましょう。

  1. 検査エンジンにクロールを促す
  2. インデックス登録される
  3. 記事が評価され、検索順位が決まる

新規コンテンツの場合は、上記3つのプロセスを経て結果が現れるまで、1か月半~3か月ほどかかってしまいます。

一方、リライトの場合はすでに記事がインデックスされている状態です。

リライトはスタート地点が2番から始まる分、新記事よりも成果が出るまでの時間が短くて済みます。

工数に対する費用対効果が高い傾向にある

コスパが高いのも、記事をリライトすることで得られる代表的なメリットです。

とくに、サイト運営歴が1年を超えており、リリース済みの記事数が50件以上の場合は、新規記事を追加するよりパフォーマンスが落ちている記事をリライトした方が、少ない費用で高い成果が得られるでしょう。

そもそも、Webサイトへのアクセス数を増やすには以下の2通り、もしくは両方の合わせ技を含めた3通りの方法があります。

「1記事の平均流入」を増やすブラッシュアップの費用のみで、1記事あたりの「資産価値」が上がる
「記事数」を増やす大量の新規記事が必要なため、自社スタッフの人工数やライターへの依頼費が膨大になる

たしかに新規記事を大量に追加することでも、Webサイト全体のアクセス数を増やすことは可能です。

しかし、最初から資産価値の高い記事だけを大量に書くには、高額な費用負担が避けられないうえ、時間が経てば別途ブラッシュアップも行わなければなりません。

その点リライトであれば、最小限の費用で各記事の「資産価値」が短期間であがるため、コストパフォーマンスが高いのです。

なお、リライトのタイパやコスパの高さについては以下の動画で詳しく解説していますので、ぜひ参考にしてください。

成果の予測・比較がしやすい

流入数やコンバージョン数などを予測・比較しやすいのも、リライトならではのメリットです。

これまでのデータが把握できている分、リライト前から何%アップするのか、ある程度予測できます。

一方、新規記事をリリースする場合は「ゼロ」からのスタートになるため、流入数やコンバージョン数などの見込みはまったくの未知数です。

サイト全体の評価が上がる

リライトによってユーザー満足度の高い記事が増えれば、Webサイト全体のSEO評価もあがります。

なぜなら、GoogleがWebサイト全体のランキング要素として重視しているのは、コンテンツの「数」ではなく、ユーザーにとっての「質」だからです。

ユーザーニーズを満たしていない、つまり長期間リライトせずに放置している記事が多ければ、GoogleによるWebサイト全体の評価はいつまで経っても低迷するでしょう。

リライトするべき記事の選び方

結論から言うと、リライト対象として選ぶべきなのは「伸び悩んでいる記事」や「失速している記事」です。

サーチコンソールの検索パフォーマンスによる比較機能を利用し、クリック数が減っているページなどを抽出しましょう。

また、Googleアナリティクスを使ってオーガニック検索数が思わしくない記事をピックアップする方法も効果的です。

ただし、リライトする記事の選定には「優先順位」があります。検索順位が「圏外」の記事ではなく、少し手を加えれば上位表示が狙えそうな記事から優先してリライトするのがセオリーです。

この点を踏まえたうえで、選定基準1~4のすべてを満たしている記事からリライトしましょう。

選定基準1:少し手を加えれば上位表示が狙えそうな記事

  • あと一歩で1位を獲得できそうな記事
  • 1位だったのに、他サイトと入れ替わって2位になった記事
  • 元々ベスト3に入っていたが、順位が下降傾向にある記事
  • このままでは10位から脱落しそうな記事

選定基準2:公開してから3か月以上経過している記事

選定基準3:キーワードの月間検索ボリュームが多い記事

選定基準4:CTR(クリック率)やCVR(コンバージョン率)が高い記事

なお、以下の記事ではコンテンツごとのアクセス数を管理する裏技についてご紹介しております。

一目でリライト対象が発見できるので、ぜひ参考にしてください。

ブログ記事をリライトする流れ

ブログ記事をリライトする手順は、以下の4ステップです。

  1. リライトするページを選ぶ
  2. 不足しているテーマを追加する
  3. 「古い情報の更新」と「誤情報の修正」
  4. リライトの効果測定

では早速、上記の4ステップについて順番に見ていきましょう。

リライトするページを選ぶ

まずは前述した選定基準に則って、リライトするページを選びましょう。

不足しているテーマワードを追加する

ステップ2は、不足しているテーマを追加する作業です。

ユーザーの疑問に幅広く答えられるよう、不足している共起語を「見出し」と「本文」に追加しましょう。

ただし、共起語としてヒットしたからといって、記事のメインテーマと関連性の低いキーワードを無理に追加するのはSEO的に逆効果です。

もちろん、ページ全体の構成を不自然に崩してまで、不要な共起語を使った見出しを設ける必要もありません。

あくまで記事の趣旨との関連性が明らかで、ユーザーニーズが見込める共起語だけを追加しましょう。

ちなみに、以下でご紹介している「Keywordmap」なら、追加すべき共起語を簡単に洗い出せるうえ、上位記事との比較もできるのでおすすめです。

共起語

出典:Keywordmap

共起語の具体的な活用術については、以下の記事を参考にしてください。

「古い情報の更新」と「誤情報の修正」

ステップ3は、「古い情報の更新」と「誤情報の修正」です。

Googleはユーザーが常に新鮮な情報を入手できるよう、フレッシュネスアルゴリズムやQDFアルゴリズム(Query Deserves Freshness)を導入しています。

つまり、より新鮮かつ正しい情報を掲載しているページは、ユーザー満足度に加えてSEOも高く評価される傾向にあるのです。

リライトの効果測定

最後のステップは、リライトの成果を確認・検証する作業です。

とはいえ、一般的な無料の検索順位モニタリングツールは、当日のランキングとざっくりとした順位変動しか調査できない、もしくはリライト前後が比較しにくいタイプがほとんどかと思います。

そこでおすすめしたいのが、特定のKWを指定してリライト前後の順位変動をページごとに比較できる「RankReboot」です。

RankReboot

出典:RankReboot

上の画像で分かる通り、リライト後に検索順位が上がっているのか、それとも下がっているのかが一目で分かる仕様になっています。

さらにアクセス数の計測や競合サイトの過去の順位が調べられるのも、RankRebootならではの強みでしょう。

ちなみに、RankRebootは今のところ一般公開していないクローズドβ版となっていますが(2023年12月時点)、Keywordmapの既存ユーザーであれば一部のお客様に限り提供が可能です。

提供可能なユーザーには「ID」と「パスワード」が付与されますので、担当に問い合わせてみましょう。

具体的な使い方については以下の動画で詳しく解説していますので、ご興味のある方はぜひご覧ください。

リライトで成果を出すコツ

この章では、リライトによってSEO評価を向上させるコツとして、以下5つの手法をご紹介します。

  • 競合ページを分析する
  • 新たな検索意図のトピックを追加する
  • PAAのトピックを盛り込む
  • 内部リンクを追加する

ここからは、上記の5項目について個別に解説していきます。

競合ページを分析する

リライト前に必ず行っておくべきなのが、競合ページの分析です。

SEOにおいて焦点をあてるべき相手は読者であり、競合ではないものの、事実競合ページと順位を競っている為、これら競合サイトがどのような切り口やテーマを取り扱っているか調査するのが望ましいでしょう。

  • どのようなタイトルを付けているのか?
  • 見出しのタイトルや構成はどうなっているのか?
  • 解説用の画像は何枚あるのか?
  • 内部リンクはいくつ設定されているのか?
  • 競合ページにあって自社にない情報はないか?

新たな検索意図のトピックを追加する

記事を執筆した時点ではまだ出現していなかった検索ニーズが

したがって、タイトルだけでなく見出しにも対策キーワードやサブキーワード、共起語などを盛り込んだ方が、SEOにとってよい効果を発揮します。

PAAのトピックを盛り込む

PAA(People Also Ask)とは、検索結果にアコーディオン形式で表示される「他の人が行った質問」のことです。

PAAにはユーザーニーズが特に高いトピックが表示される仕組みになっているため、リライト時には積極的に盛り込むべきでしょう。

内部リンクを追加する

リライト対象のページを初めて公開した当時には存在していなかった、あるいは関連性が深まったという記事があれば、内部リンクで繋ぎましょう。

内部リンクはユーザビリティの基本であると同時に、検索エンジンがサイト内を正しく巡回できるようにサポートする役目も担っているのです。

リライトで成果を出すコツ:読了率・CVR編

続いて、リライトによって読了率やCVR(コンバージョン率)を向上させるコツとして、以下2つの手法をご紹介します。

  • 読みやすい文章に書き換える
  • 読了率やCTAのクリック率などを改善する

では早速、順番に見ていきましょう。

読みやすい文章に書き換える

一口に「読みやすい文章」といっても、読解力はユーザーによって差があります。
そこでおすすめしたいのが、以下のチェック項目です。

  • 誰が読んでも、素早く理解できる言い回しになっているか?
  • たやすく記憶に定着するか?
  • 脈略のない文章の流れになっていないか?
  • 意味不明な自作用語を使っていないか?

上記の4項目を満たすことで、すべての人にとって比較的読みやすい文章に仕上がります。

読了率やCTAのクリック率などを改善する

リライトによって滞在時間を長くしたり直帰率を低下させたりするには、読了率やCTAボタンのクリック率を改善する手法が効果的です。

たとえば、ページの前半で離脱するユーザーが多ければ記事の方向性や構成案を、中盤で離脱するユーザーが多い場合は冒頭から中盤までを、ブラッシュアップしなければなりません。

一方CTAボタンのクリック率が悪ければ、デザイン自体を変更したり別の箇所に配置し直したり、といった修正が必要です。

まずは、Microsoftが提供している「Clarity」など、無料のヒートマップツールを使って問題箇所を洗い出しましょう。

リライトの注意点

記事をリライトする際の注意点として、以下2つの項目が挙げられます。

  • コンテンツを削除するのも1つの戦略
  • 1位ページのリライトは控える

ここからは、上記2つの注意点について個別に解説していきます。

コンテンツを削除するのも1つの戦略

内容がユーザーの検索意図から外れている記事は、Webサイト全体の評価を下落させるマイナス要因です。

テーマ自体に需要がない、あるいはテーマと内容に大きな誤差がある記事は、リライトよりも削除を検討すべきでしょう。

1位ページのリライトは控える

結論から言うと、たとえ半年以上にわたって更新していないからといって、ランキング1位の記事を無理にリライトする必要はありません。

そもそもリライトしたからといって、必ずしも検索順位が上がる、あるいは1位をキープできるという保証はないのです。

反対に、リライトによって検索順位が下がるケースもあるため、少なくとも1位を維持している間は更新を見送るべきでしょう。

ただし、検索順位が2位の記事であれば、1位の優位性をリライトによって自ページに反映させることで、逆転を狙う価値は十分にあります。

まとめ

リライトは、ブログ記事の資産価値を短期間で上げることができる有効な手段です。

しかも、ユーザー満足度が高い新規記事を大量に追加するよりも、はるかに費用負担が少なくて済みます。

タイパとコスパの高さを重視するなら、新しい記事を書くよりも既存の記事を改善するリライトを検討してみてはいかがでしょうか。

]]>
【基本編〜上級編】Googleサーチコンソールの使い方を解説!https://seolab.jp/blog/google-search-console-guide/Fri, 22 Mar 2024 11:45:36 +0000https://seolab.jp/blog/?p=2546

Googleサーチコンソールとは、自社サイトの問題点を見つけて改善するためのSEO管理ツールです。 ユーザーがどのキーワードで自社サイトにアクセスしているのか、表示速度が遅くてユーザーを取り逃がしていないかなど、SEOの ... ]]>

Googleサーチコンソールとは、自社サイトの問題点を見つけて改善するためのSEO管理ツールです。

ユーザーがどのキーワードで自社サイトにアクセスしているのか、表示速度が遅くてユーザーを取り逃がしていないかなど、SEOの観点でページパフォーマンスを分析してくれます。

その反面、機能が多くて使いこなせていない方も多いようです。

そこで今回は、Googleサーチコンソールの基本的な使い方から、中・上級者向けの便利機能までを、まとめてご紹介していきます。

Googleサーチコンソールとは?

サーチコンソール(Google Search Console)とは、Googleが提供している無料のSEO解析ツールです。

SEOを強化して検索順位を上げるために、自社サイトの問題点を見つけて改善するための分析ツール、と言った方がイメージしやすいかもしれません。

この章では、Googleサーチコンソールについて以下の2項目に分けて解説していきます。

  • Googleサーチコンソールでできること
  • Googleアナリティクスとの違い

では順番に見ていきましょう。

Googleサーチコンソールでできること

Googleサーチコンソールに自社のWebサイトを登録すると、以下のような調査ができるようになります。

検索パフォーマンスの確認・サイトへの流入キーワード
・キーワードごとの順位、表示回数、クリック数など
・ページごとの流入数・ユーザーがアクセスする際に使ったデバイス
・ユーザーがどの地域からアクセスしたか
サイトの問題点を探す・表示スピードが遅いページを発見
・エラーページの有無・スマホから見やすくなっているか
・ペナルティの有無
・セキュリティ上の問題を検知
インデックスの促進・制御・インデックス登録の申請
・サイトマップの送信
・クロールの促進
・インデックスに登録済のページ数
・インデックスに登録されていないページ数・検索結果で非表示にする
被リンクの把握・どのようなサイトからリンクされているか

Googleアナリティクス4との違い

GoogleサーチコンソールとGoogleアナリティクスの違いは、主に以下の2点です。

GoogleサーチコンソールGoogleアナリティクス
時間軸の違い検索時のユーザー行動がわかる(サイトに流入する前)検索後のユーザー行動がわかる(サイトに流入した後)
用途の違い・検索順位を上げるには、何をすべきか知りたい・どのキーワードでどれくらい流入しているのか確認したい・ユーザーがサイト内を回遊しているか、動線設計はうまく機能しているか確認したい
・ユーザーニーズを満たせているか、滞在時間や離脱率から推測したい

GoogleサーチコンソールとGoogleアナリティクスは連携することで互いの機能を補完しあうことができますが、単独で使用する場合は違いを理解しておく必要があります。

なお、従来のユニバーサルアナリティクス(UA)は2023年7月1日をもって計測が終了し、データの閲覧のみ2024年7月1日まで可能です。

したがって、この記事では最新版のGoogleアナリティクス4プロパティ(GA4)を対象にしていますが、UAであろうとGA4であろうとGoogleサーチコンソールとの違いは上記で説明した内容に相違ありません。

サーチコンソールの登録・設定方法

サーチコンソールを使用するには、自サイトを登録して初期設定と関連ツールを連携させる必要があります。

具体的な手順は以下の通りです。

  1. サーチコンソールに自社サイトを登録
  2. 所有権の確認
  3. Googleアナリティクスと連携
  4. サーチコンソールインサイトと連携

順番に解説していきます。

1.サーチコンソールに自社サイトを登録

サーチコンソールに自社サイトを登録する手順は、4ステップで完了します。

  • 1-1:「Google Search Console」にアクセスする
  • 1-2:左下の「今すぐ開始」をクリック
「Google Search Console」にアクセス
  • 1-3:画面の左上の「プロパティを追加」から「プロパティタイプ」を選択
  • 1-4:サイトURLを入力する

以下に当てはまる方は、手順1-3で「URLプレフィックス」を選択してください。

  • 自社サイトが1つしかない
  • 新たなドメインで登録する
  • Googleアナリティクスと連携する予定がある

一方、1つのドメインで複数のサイトを運営している方は、サイトの一括登録ができる「ドメイン」を選択しましょう。

「ドメイン」を選択

2.所有権の確認

データを自由に閲覧できるようにするためには、手順1でサーチコンソールに登録したWebサイトの所有者であることを証明しなければなりません。

ただし、1つ前の手順1-3で「ドメインプロパティ」を選択したか、もしくは「URLプレフィックスプロパティ」を選択したかで、表示される画面も手順も異なるので注意が必要です。

「ドメインプロパティ」を選択した場合は「DNSレコード」の画面が表示されるので、③の「TXTレコード」をコピーして、画面の支持に沿って進んでください。

「TXTレコード」をコピー

一方、「URLプレフィックスプロパティ」を選択した場合は、Googleが推奨している「HTMLファイル」で確認しましょう。

3.Googleアナリティクスと連携

Googleアナリティクスと連携する手順は、以下の通りです。

  • 3-1:Googleアナリティクスにアクセスする
  • 3-2:左メニューより「集客」>「Search Console」>「検索クエリ」を選択
  • 3-3:「Search Consoleのデータの共有の設定」をクリック
  • 3-4:プロパティ設定の画面で「Search Consoleを調整」をクリック
  • 3-5:「Search Consoleの設定」の画面で「追加」をクリック
  • 3-6:サーチコンソールで連携するサイトを選択し、保存する

4.サーチコンソールインサイトと連携

サーチコンソールに登録後、以下の手順に沿ってサーチコンソールインサイトと連携しましょう。

  • 4-1:サーチコンソールの左メニューより「サマリー」を選択
  • 4-2:「Search Console Insight」をクリック
「Search Console Insight」をクリック

以下のように、サーチコンソールインサイトと連携することで、「PV数全体の推移」や、「最も流入につながったクエリ」などが、要約(サマリー)で表示されます。

【基本編】Googleサーチコンソールの使い方

以下は、Webサイトを運営するうえでぜひマスターしていただきたい、サーチコンソールの基本的な使い方です。

  • 「サマリー」で検索パフォーマンスを確認
  • 「検索結果」で流入状況を確認
  • 「URL検査」でインデックス登録の状況を確認
  • 「ページのインデックス登録」でエラーページの確認
  • 「サイトマップ」を送信する
  • 「削除」機能で検索結果を非表示にする
  • 「リンク」で外部・内部リンクを確認する
  • 「拡張」でページが認識・評価されているかを確認

ここからは上記8つの項目について、基本機能について、画像付きで使い方を解説していきます。

「サマリー」で検索パフォーマンスを確認

まずは、サイト全体のパフォーマンスや問題点を、「サマリー」を使って簡略的に調べる方法をご紹介します。

左メニューの「サマリー」をクリックすると、以下のデータをまとめて確認することが可能です。

  • 検索パフォーマンス:検索経由の合計クリック数の推移
  • インデックス作成:インデックスに登録済のページ数と、登録されていないページ数
  • エクスペリエンス:ページエクスペリエンス、ウェブに関する主な指標、モバイルユーザビリティのパフォーマンス
  • 拡張:パンくずリスト、サイトリンク検索ボックス

「検索結果」で流入状況を確認

より詳細な流入状況を確認したいときは、左メニューの「検索パフォーマンス」>「検索結果」をクリックしましょう。

なお、過去16か月前以降であれば、測定する期間を自由に設定することが可能です。

「検索パフォーマンス」>「検索結果」をクリック” class=”wp-image-2552″></figure><p>上記の画面では、以下4つの指標がどのように変化しているのか、グラフで推移を確認できるようになっています。</p><ul><li>合計クリック数:Google検索でサイトがクリックされた回数</li><li>合計表示回数:Google検索でサイトが表示された回数</li><li>平均CTR:検索結果の表示回数に対して、クリックされた割合の平均</li><li>平均検索順位:Google検索におけるサイトの平均順位</li></ul><p>また、画面をスクロールすると以下の一覧表が表示され、ユーザーが検索したクエリ(キーワード)ごとの「クリック数」と「表示回数」を確認することが可能です。</p><figure class=ユーザーが検索したクエリ(キーワード)ごとの「クリック数」と「表示回数」

「URL検査」でインデックス登録の状況を確認

サーチコンソールでは、左メニューの「URL検査」をクリックするだけで、インデックスされているかどうかを確認できます。

URL検査

「ページのインデックス登録」でエラーページの確認

エラーページ、つまりインデックス登録されていないページを確認するときは、左メニューから「インデックス作成」>「ページ」をクリックしましょう。

以下の通り、インデックス登録されているページ数と登録されていないページ数の両方が表示されます。

インデックス登録されていないページを確認する

さらにスクロールすると、インデックス登録がエラーになった理由が表示されるので、早めに改善しておきましょう。

インデックス登録がエラーになった理由

「サイトマップ」を送信する

Webページ全体のインデックス登録を促したいときは、サーチコンソールからGoogleへ向けて、サイトマップ(Webサイト全体の構成をまとめたXML形式ファイル)を送信しましょう。

サイトマップを送信する手順は、以下の通りです。

  1. 左メニューの「インデックス作成」から「サイトマップ」を選択
  2. XMLサイトマップのURLを入力し、「送信」をクリック
サイトマップ

「削除」機能で検索結果を非表示にする

サイト全体の評価を下げる恐れがある低品質ページが検索結果に表示されている場合は、完一時的にインデックスを外しておきましょう。

左メニューの「削除」> URLを入力 > 右上の「新しいリクエスト」をクリックすると、指定したページが検索結果で非表示になります。

「削除」機能

ただし、ページ削除のリクエストは6か月ほどで解除されるので注意が必要です。

完全に検索結果から除外するには、404ステータスコード(Not Found)を返す処理をしておきましょう。

「リンク」で外部・内部リンクを確認する

左メニューから「リンク」をクリックすると、外部・内部リンクの両方を確認できます。

リンク

業界の第一人者など、良質な外部リンクは自サイトのSEO評価が向上する要因です。

その反面、低品質なサイトからのリンクは自社サイトのSEO評価を下げる要因になるため、解除を申請する必要があります。

「拡張」でページが認識・評価されているかを確認

左メニューの「拡張」をクリックすると、以下3点についてGoogleに認識・評価されているかどうかがわかります。

  • パンくずリストが正しく設定されているか
  • サイトリンク検索ボックスが表示されているか
  • 構造化データが正常に実装されているか

パンくずリスト

パンくずリストが正しく設定されているかどうかを確認するときは、左メニューの「拡張」>「パンくずリスト」をクリックしてください。

パンくずリストに問題が発生しているページがあれば、「無効」の欄に表示されます。

パンくずリスト

サイトリンク検索ボックス

「サイトリンク検索ボックス」とは、検索結果に同じサイトのページがまとめて複数表示される、以下のような状態を指しています。

サイトリンク検索ボックス

「サイトリンク検索ボックス」が表示されているかどうかを確認したいときは、左メニューの「拡張」>「サイトリンク検索ボックス」をクリックしてください。

該当URLが表示されます。

「サイトリンク検索ボックス」が表示

構造化データ

構造化データとは、Webページの構造を検索エンジンに正しく理解してもらうためのデータ形式です。

以下のように、検索結果にリッチリザルトが表示されていれば、構造化データが正常に実装されている証明になります。

構造化データ

左メニューの「拡張」>「解析不能な構造化データ」をクリックし、「無効」が0であれば問題ありません。

一方「無効」が存在している場合は、スクロールすると原因を知らせてくれます。

【中・上級編】Googleサーチコンソールの使い方

次に、中・上級者向けにGoogleサーチコンソールの使い方をご紹介します。

「ウェブに関する主な指標」で表示速度などを確認

「ウェブに関する主な指標」という機能は、ユーザーが快適に閲覧できないページを発見するための機能です。

左メニューの「エクスペリエンス」から「ウェブに関する主な指標」を選択すると以下の画面が表示され、表示速度が著しく遅いページは「赤の不良」にカウントされます。

ウェブに関する主な指標

さらに「レポートを開く」をクリックすると、以下の画面上で原因を確認できます。

なお、ページの表示速度については以下の記事で詳しく解説していますので、ぜひ参考にしてください。

ページ表示速度を上げる方法(SEOの効果は?)

「バブルチャート」でリライト対象ページを探す

この章では、サーチコンソールの「バブルチャート」を使って改善すべきページを見つける方法をご紹介します。

つまり、サーチコンソールで調査した検索クエリのパフォーマンスデータを、バブルチャートとして表示することで「どのページからリライトすべきか」が一目で判断できるようになるのです。

サーチコンソールで調査した検索クエリのパフォーマンスデータを、バブルチャートとして表示

バブルチャートの縦軸は検索順位を表しており、上に行くほど上位化に成功している記事になっています。

一方、縦軸はクリック率を表しており、一番右側のバブルがサイト内で最もクリック率の高い記事です。

つまり、以下の通り優先してリライトすべきなのは、クリック率は高いが検索順位が低い「右下の記事」という事実が見えてきます。

優先してリライトすべきなのは、クリック率は高いが検索順位が低い「右下の記事」

検索順位が低いにもかかわらずクリック率が高いということは、キーワードと検索意図が微妙にズレている可能性か高いと考えられます。

つまり、適切なキーワードを使って追記・修正を行えば、高確率で上位かが狙えるのです。

バブルチャートの活用法については以下の記事で詳しく解説していますので、ぜひ今後のリライト対策にお役立てください。

【SEO】サーチコンソールを使って検索順位を上げる方法

「ページパフォーマンス」による改善箇所の発見

この章では、以下のようにWebサイト全体のアクセス数が一定期間にわたって著しく減少している場合の対処法についてご紹介します。

Webサイト全体のアクセス数が一定期間にわたって著しく減少

最初に行うべきは、パフォーマンスが低下しているページの洗い出しです。

まずは「検索結果で流入状況を確認」の章で解説した手順に沿って、クエリごとのアクセス数を確認してみましょう。

以下のように、明らかに下落しているページを一目で把握できます。

クエリごとのアクセス数を確認

次に行うべきは、パフォーマンスが低下しているページの必要性を吟味することです。

検索意図とトピックが一致いていない記事は適切なキーワードでリライトする、そもそもユーザーニーズの低いキーワードで作成している場合は別のトピックとしてまとめなおす、といった作業を行うことで回復が見込めます。る、

なお、以下の一覧表は具体的な改善策を優先順位の高い順にまとめていますので、ぜひ参考にしてください。

改善策の優先順位

最後にこの章をまとめると、一連の流れは以下のようになります。

・Webサイト全体のアクセス数減少が短期か、長期かを確認する
・長期で低下している場合は、クエリごとのアクセス数から原因のページを洗い出す
・ページの必要性を吟味する
・優先順位の高い改善策から実行する

なお、検索パフォーマンスが低下したときの対処法については以下の記事や動画でも解説していますので、ぜひ参考にしてください。

検索パフォーマンスを期間比較し、クリック数が減っているページを発見し、リライトするなどの対処を行う方法を記述します。

2023年11月のコアアルゴリズムアップデートを分析

まとめ:Googleサーチコンソールをマスターしてユーザーニーズを分析しよう

今回はGoogleサーチコンソールの基本的な使い方から、中・上級者向けの活用法までをご紹介してきました。

自社サイトの問題点を発見できるサーチコンソールは、SEO担当者にとって必須ツールと言ってよいでしょう。

サーチコンソールが使いこなせるようになると、ユーザーニーズがより明確に見えてきます。

この記事でご紹介した使い方を、ぜひ自社サイトの管理・改善にお役立てください。

]]>
【続報】Googleアルゴリズムアップデート 2024年3月9日時点https://seolab.jp/blog/2024-google-algorithm-update-report/Fri, 15 Mar 2024 04:18:57 +0000https://seolab.jp/blog/?p=2664

今回は2024年3月9日時点でのGoogleアルゴリズムアップデートの続報をお伝えします。 先日、3月6日にロールアウトされた「コアアルゴリズムアップデートとスパムアップデート」に関する続報です。 アップデート後の変動状 ... ]]>

今回は2024年3月9日時点でのGoogleアルゴリズムアップデートの続報をお伝えします。

先日、3月6日にロールアウトされた「コアアルゴリズムアップデートとスパムアップデート」に関する続報です。

アップデート後の変動状況

まず、アップデート後の変動状況について見ていきましょう。

リリース当日の3月6日はほとんど変動がなく、いつもとは異なる状況でした。しかし、2日後の3月8日から徐々に変動が発生し始めています。

では、具体的なキーワード領域で見ていきましょう。

格安SIM領域

格安SIMキーワードでは、特定のサイトで大きな変動が見られました。

とあるサイトでは、アップデート前は91位や24位といった順位でしたが、ここ数日で一気に3位や6位まで上昇しています。明らかにアップデートの影響を受けて、順位が大きく変動したサイトがあるようです。

まだ特定のサイトには限定されるものの、アルゴリズムアップデート以降、大きく上下するサイトがありました。

脱毛領域

脱毛系キーワードでは、多少の変動はあるものの、大きな変動はまだ見られていません。

特定のサイトで急激な順位の変化が見られましたが、これはアップデートが原因というよりも、そのサイト特有の要因である可能性が高いです。

以上のように、一部サイトではアップデート後に変動は見られたものの、アップデートらしい「検索全体が大変動」という状態にはまだ無いようです。(3月9日時点)

インデックス削除の騒動

次に、インデックス削除の騒動についてお話しします。

アルゴリズムアップデートのリリースと同時に、複数のサイトでインデックスが突然削除されるという事態が発生しました。

なお、Googleは、低品質でオリジナルでないコンテンツの約40%を削除すると発表しています。

削除されたサイトの特徴を見ると、AIで生成された低品質な記事が大量に公開され、なおかつ広告が乱立しているようなサイトが多いようです。

いわゆる「AIを使ったMFAサイト」とも呼ばれる、アドセンス収入のためだけに作られたようなサイトが狙い撃ちされた形です。

実際に削除されたサイトを確認してみると、確かにGoogleの検索結果からは完全に姿を消しています。

しかし、興味深いのは、これらのサイトが数日前まではかなりの検索流入を獲得していたという点です。アップデートのリリースと同時に、一気にインデックスごと削除されてしまったのです。

ただし、このインデックス削除がアルゴリズムによる自動的な対応なのか、それとも手動の対策なのかについては、情報が錯綜していました。

これについてGoogleは公式にツイートで見解を示しており、今回の一斉削除は手動アクションであり、アルゴリズムのアップデートとは関連しないと明言しています。

とはいえ、スパムポリシーの更新とアルゴリズムアップデートのタイミングが同じであることを考えると、何らかの関連性はあるのではないでしょうか。Googleのスパム対策への強い意志が感じられる出来事だったと言えます。

中古ドメイン対策の影響

今回のアップデートでは、中古ドメインを使ったスパム対策も予告されていました。

「●●闇金」や「●●現金化」といったややアングラなキーワード領域では、中古ドメインが濫用されやすい傾向にあります。

実際に、とある昨年11月に取得されたドメインが、わずか数ヶ月で大量の検索流入を獲得している事例も確認されました。

301リダイレクトを駆使した巧妙なブラックハットSEO手法により、短期間で上位表示を実現していたのです。

しかし、現時点ではこうした中古ドメインサイトの劇的な順位変動は見られていないようです。

実際に、この中古ドメインによって短期的に上昇したサイトの順位を確認したところ、アップデート前と後でほとんど動いていない事が分かります。

3月9日の時点で、依然として上位をキープしているケースが多く、まだアップデートの影響は限定的と見られる状況にありました。

まとめ

以上、3月9日時点でのGoogleアルゴリズムアップデートの状況をまとめてみました。現時点での変動は緩やかではありますが、一部のサイトでは動きが発生し始めています。

特に、AIを使った低品質コンテンツの大量生成に対するGoogleの姿勢は明確です。今後はこうした手法の効果が薄れていくことは間違いありません。一方で、中古ドメイン対策については、まだ顕著な影響は見られていないようです。

ただし、今回のアップデートは1ヶ月かけて進行するとのことなので、油断は禁物です。引き続き注視が必要だと言えるでしょう。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
大規模サイトのSEOを「一部」お見せしますhttps://seolab.jp/blog/large-website-seo/Tue, 05 Mar 2024 04:27:06 +0000https://seolab.jp/blog/?p=2619

今回は、大規模サイト向けのSEO対策について解説します。 私は、様々な大規模データベース型サイトのSEOコンサルティングを手掛けてきました。この経験から、大規模サイト特有のSEOを一部、要点を絞って説明します。 大規模サ ... ]]>

今回は、大規模サイト向けのSEO対策について解説します。

私は、様々な大規模データベース型サイトのSEOコンサルティングを手掛けてきました。この経験から、大規模サイト特有のSEOを一部、要点を絞って説明します。

大規模サイトSEOの基本概念

大規模サイトとは?

大規模サイトのSEOについてお話しする前に、このページで指す「大規模DB型サイト」とは何かを明確にしたいと思います。

例として、「価格.com」「Amazon」「@cosme」「MonotaRO」のようなWebサイトを「大規模DB型サイト」とします。

これらサイトは、数多くの商品やサービスのデータレコードを持ち、それらレコードをひとつのページとして自動生成&出力してサイトを構築しています。

大規模サイトにおけるSEO

では大規模DB型サイトのSEO施策は、他の小規模サイトのSEOとは異なるのでしょうか?

コンテンツ品質やOn Page SEOなど基本的なSEO施策は同じですが、大規模サイトはその規模が大きいゆえに、小規模サイトとは異なる取り組みも必要です。

その中でも重視するのが「クローラビリティ」と「インデクサビリティ」、「PLP」です。

どうしても膨大なページ数を保有する為、小規模サイトでは直面しない「クロールされない」「インデックスされない」という課題に直面しがちです。

これら大規模サイト特有の課題を取り除くことから、SEOが始まります。

また、小規模サイトと異なり、大規模サイトではページ単一のSEO戦術を取ることが難しい傾向にあります。

著者がひとつひとつのページを執筆し、ページを作成する記事型サイトとは異なり、DB型サイトは格納されているデータレをテンプレートを用いてページ化し、自動出力する事で一気に膨大なページ数を生成します。

したがって、ページ単一の品質評価で上昇する戦術ではなく、ページ群やサイト評価で上昇を図るのが基本的な方針となります。こうなると、評価の源泉でもある大量のページが適切にインデックスされていないと、SEO効果を十分に引き出せません。

さらに、似た内容のページが多いと、サイト内でのランキング争い、いわゆるカニバリゼーションが起こりやすくなります。この問題に対処するには、適切なSEO施策を選び、実行することが重要です。

大規模サイトSEOの4つポイント

大規模サイトのSEOを成功させるには、おさえるべきポイントを理解し、適切な施策を選定し、実行することが求められます。

ここでは大きく4つのポイントで説明します。(※4つ以外にも重要ポイントは存在しますが、今回は4つのみ紹介)

【1】クローラビリティ

これは、サイト内に存在する大量のページを適切かつ効率的にGoogleクローラーに回遊させる為の施しを指します。サイトが拡大し続けるため、新たなページがスムーズにクローリングされ、インデックス登録されるよう整備することが大切です。

参考:大規模なサイト所有者向けのクロール バジェット管理ガイド

【2】インデクサビリティ

これは、サイト内のページがGoogleにインデックスされる状態を指します。大量のページを持つ大規模DB型サイトでは、公開ページをテーマごとに強調しながらインデックス登録し、各ページの順位上昇を目指します。

この手法で順位上昇を図るためには、インデックス対象とするページの品質を半自動的にコントロールし、できる限りインデックス登録させる必要があります。

【3】PLP(優先的なランディングページ)

サイト内に存在する数多くのページのうち、クエリごとにヒットさせるべきページと、実際にヒットしているページを意図的に一致させる事を指します。

【4】On Page SEO

これは、構造化マークアップやページ表示速度の高速化、内部リンク構築、テンプレート改修によるテーマ性の強調などページ単位で行うSEO施策を指します。

これらのポイントを抑えて対策することで、大規模サイトはそのポテンシャルを最大限に活かし、順位上昇を図ります。

よくある大規模サイトのSEO課題

大規模サイトがSEOで直面する主な課題は、サイトの規模や構成の複雑さから生じることが多いです。ここでは、よくあるSEO課題を一部紹介します。

インデックス登録率の低さ

まず、大規模サイトの課題の一つに「インデックス化率の低さ」があります。

ページ数が多く、自動生成である事からページ品質の維持が出来ておらず、結果インデックス登録されないサイトがときたま見られます。

せっかく有益なページが多数あるにも関わらず、サイト内に低品質コンテンツがあるために、これら有益ページ群もインデックスされない勿体ないケースも目にします。

ページのカニバリ

次の課題は「カニバリゼーション」です。

似た内容のページが多いと、これらが互いに競合し、どのページも検索結果の上位に表示されにくくなります。この問題は、多様な製品やサービスを提供する大規模サイトでよく見られます。

また、canonicalやnoindexによって防げる重複ページの課題も見られるため、テクニカルSEOで改善できる余地もあります。

クロール回遊率の低さ

また、「クローラー回遊率の低さ」も大規模サイトSEOでよく挙がる課題のひとつです。

ページ数が多く構造が複雑なサイトは、Googleのクローラーが完全に巡回することが難しくなります。さらに、低品質のコンテンツが多い、またはナビゲーションが複雑で、ユーザーとクローラーの両方にとってナビゲートしにくい点も問題となります。

これらの課題に適切なSEO対策を施すことで、大規模サイトはその潜在的な価値を十分に発揮することができます。次に、これらの問題に対する具体的な解決策を詳しく解説していきます。

インデクサビリティを向上させてみる

インデックスアビリティの向上には、クローリングの阻害となる要因を排除し、ページ品質の維持や制御が重要となります。

では、インデクサビリティを悪化させている要因を調べてみましょう。

サーチコンソールを開き、インデックス作成>ページ を順にクリックします。

すると、サイト内のページのうち、どれくらいインデックス登録されたか表示されます。

上記の例では、インデックスの未登録を示すグレー色のグラフが大半を占めている事から、このサイトの多くのページはインデックス登録されていない事がわかります。

この「未登録」が意図的なインデックス登録回避なのか、それとも品質などに課題がありインデックス登録されなかったのかによって、この状況の捉え方(評価)が変わってきます。

もし、意図的ではない未登録の多さであれば、その要因を調査し、改善する必要があります。

では、その要因を探ってみましょう。

サーチコンソールには「ページがインデックスに登録されなかった理由」が表示されますので、これら項目を深掘りながら要因を探っていきます。

例えば、「クロール済み – インデックス未登録」の場合、Googleクローラーはページを取得したが、インデックスには登録しなかった事になります。

実際にページ検査の結果を見ると、ページも取得し、インデックス登録も許可されているにも関わらず、何らかの要因によってGoogle自らがインデックス登録しなかった事が伺えます。

では、なぜページクロールしたにも関わらず、インデックス登録しなかったのか?

一概には言えませんが、要因のひとつに対象ページのコンテンツ品質の低さが挙げられます。

とある案件のサイトでは、ユーザーの口コミを大量に保有しており、商品のランキングサイトを構築していました。

商品ごとに投稿された口コミを一覧で表示していたものの、口コミ単体でも表示できるサイト構造にありました。

これらの口コミ単体ページは、ほぼインデックスされていない上、ユーザーからのアクセスもほとんどありませんでした。

ユーザーにとってもページの必要性が無かったこの「口コミ単体ページ群」は、これを機に全ページクローズしました。結果、不要なクロール回遊を誘発させていたページを排除し、サイト全体の評価低下を防ぎました。

このように、サイト構造や構築当初の仕様によりページ品質が担保できないページが大量に生成され、インデックス未登録が多発する事があります。これら構造上の課題を発見し、対処していくことが大規模サイトSEOの一つと言えるでしょう。

なお、インデクサビリティに関しては、別の動画「【SEO対策】ページをインデックス登録する方法」で詳しく解説していますので、合わせて御覧ください。

サイトマップによるインデックス率のモニタリング

サイトマップとは、サイト内のページ構造を一覧で示したファイルで、Googleなどの検索エンジンへサイト全体の構造を効率よく伝えます。

大規模サイトSEOの場合、このサイトマップは「URL通知の役割」に加えて、「インデックス化率のモニタリング」にも利用したりする事もあります。

例えば、論理階層ごとにXMLサイトマップを自動生成し、サイトマップインデックスでまとめます。

これらサイトマップインデックスに掲載したXMLサイトマップは、サーチコンソールにも登録されます。

サーチコンソールでは、各サイトマップのインデックス登録率をグラフで表示してくれます。これにより、指定したURL群のインデックス化率をモニタリングできます。

もし、インデックス化率向上のSEO施策を施した際は、サイトマップを用いてその効果や反応を適切にモニタリングすると良いでしょう。

アクセスログによる解析

ここまでサーチコンソールによる調査方法を説明しましたが、サーチコンソールによる調査はあくまでもざっくりとした物に留まります。

大規模サイト、とりわけ運用歴が長いサイトの場合、数年前に運用が終わってそのまま宙ぶらりんになってしまった古いキャンペーンページや、機能していないAPIによるJSON出力が大量に残っているケースがあります。

これら「宙ぶらりんの残骸ページ群」を探すには、過去のURLリストをできる限り抽出し、調査するのが望ましいでしょう。この際に用いるのがサーバーのアクセスログです。

サーバーのアクセスログからサイト内に存在したURIを抽出し、GA4やサーチコンソールの検索パフォーマンスデータを結合します。

長年存在し続けているURLで、長期間インプレッションすら発生していないページは、低品質ページの温床となっている可能性が高いURLと考えられます。

これらデータを元に、低品質の温床となっている階層やページ群を抽出し、対策必要箇所を洗い出していきます。

PLPの最適化

PLP(Preferred Landing Page)の最適化は、検索エンジンを使うユーザーを欲しい情報や製品へ正確に誘導するために重要です。

大規模なサイトでは多くのページがあり、本来ヒットさせるべきページと、実際に検索ヒットするページに差が発生する事があります。

とりわけ、検索順位が低い階層ほど、PLPの不一致が発生している傾向にあります。

この「PLPの不一致」を調査すべく、論理階層ごとに検査キーワードをリストアップし、検索順位とヒットURLを抽出します。

もしPLP不一致が大量に発生している場合、対象となる論理階層配下の改善が必要となります。

とるべき施策は多数存在しますが、良く用いられる施策として「テーマ性の分離と強調」です。

とあるECサイトでは、本来カテゴリページでヒットさせるべき一般名詞キーワードが、商品詳細ページでヒットしていました。DBに入稿された商品名が一般名詞であり、カテゴリページ(商品一覧ページ)と強調テーマが類似していました。

カテゴリページとテーマ性を分離すべく、Title等で強調する主軸テーマに変更を加えました。(商品詳細ページにはメーカー名や型番などもtitle内に挿入)

同時に論理構造の整理に伴う内部リンクの再構築によって、PLP不一致は徐々に改善されました。

以上のように、PLP一致調査を通して、本来のLPとヒットしているLPに不一致が発生している論理階層やページ群を発見し、不一致を引き起こす要因を調査します。その調査から分かった要因を取り除く施策を施すことで、徐々に順位上昇させていきます。

クエリに応じた戦術選定

ここまで大規模サイト向けのSEOを解説しましたが、その多くが「テクニカルSEO」であると映ったかもしれません。

しかし、大規模サイトだからといって全てのSEO施策がテクニカルSEOという訳でもありません。

大規模サイトのSEO戦略を立てる時、各キーワードやクエリに応じた適切な対応が大切です。

例えば「転職 名古屋」のキーワードには転職情報を一覧表示するDB型ページが上位に表示されます。

しかし、キーワードを少し変えた「転職 レジュメ 書き方」ではレジュメの書き方説明する記事ページが上位に表示されます。

つまり、キーワードによってユーザーが求める情報の型は変わり、上位表示のページ形式も変わるのです。

大規模サイトを運営する際、扱うキーワードは広範にわたるため、データベース型のページだけでなくコンテンツページとの組み合わせも重要です。

例として挙げられるのがIndeedです。

大型DB型アグリゲーションサイトの代表格であるIndeedですが、全てのページがDB型というわけではありません。

/career-advice/配下には、多数の就職アドバイスコンテンツを格納しており、DB側では検索ヒットしないキーワードで多数の集客に成功しています。

このように、検索キーワードの検索意図に応じて適切な「ページの型」を選定し、SEOを施すのが望ましいでしょう。

結論として、大規模サイトのSEO戦略では、多様性を取り入れ、ユーザーの検索意図に合った価値ある情報を提供することが重要です。戦略を柔軟に調整し、継続的な改善を行うことで、サイト全体のSEO効果を最大化できることでしょう。

最後に

今回紹介した「大規模DB型サイトのSEO」は、実務で行う施策のほんの一部にしか過ぎません。

また、大規模サイトになるほど関係者が増える為、プロジェクトマネジメント能力が求められます。

エンジニア向けに要件定義書を起票したり、開発側とのプロダクトマネージャーと連携しながら工程管理をしたり、ページ統合や機能廃止、表現変更に伴うビジネス側との調整など、「調整力」と「推進力」、「折衝力」が求められます。

これらプロジェクトマネジメント能力があってこそ、大規模サイトでのSEO効果を得られるものだと思います。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
Googleの最新AI「Gemini」とSEOの未来https://seolab.jp/blog/google-ai-gemini-advanced-seo/Mon, 12 Feb 2024 04:48:00 +0000https://seolab.jp/blog/?p=2577

Googleが2月8日に発表した最新AI「Gemini」についてその詳細と、SEOに対する影響を探っていきたいと思います。 Geminiとは何か? 今回はGoogleが2月8日に発表したAIサービス「Gemini」は、従 ... ]]>

Googleが2月8日に発表した最新AI「Gemini」についてその詳細と、SEOに対する影響を探っていきたいと思います。

Geminiとは何か?

今回はGoogleが2月8日に発表したAIサービス「Gemini」は、従来「Bard」と称されていたものが新たな名称で提供開始されることになりました。

特に注目すべきは、最新モデル「Gemini Ultra」がGemini Advancedで使えるようになった点です。

Gemini Ultraは、Googleの提供するAIモデルの中でも最上級の性能を誇り、より複雑なタスクや質問に対しても高度な処理能力を発揮します。

そのモデルを利用できるWebサービスがGemini Advancedであり、有料サービスとして月額2900円で提供されました。その利便性と機能範囲の広さにより、ChatGPT Plusと競合する位置づけにあると見られています。

Gemini Ultraが搭載されることで、現在市場に出ているGPT4をも上回る可能性を秘めています。ただし、この「Gemini Ultra」は、主に英語に最適化されており、日本語には対応しているものの、その能力を最大限に引き出すためには英語での利用が推奨されています。

Gemini Advancedの機能

Gemini Advancedにアクセスすると、チャットGPTのような対話型のインターフェイスが表示されます。

左上のメニューからは「Gemini Advanced」と「Gemini」のどちらを使用するか選択可能です。

Gemini Advancedに搭載されているモデル「Gemini Ultra」は最先端のモデルであり、より複雑なタスクの処理が可能です。

Googleによると、Gemini Ultraは従来のモデルよりも高度な処理能力を持っており、現在の最強モデルであるGPT4をも上回る性能を持っているとのことです。

これは、AI技術の進化とともに、より複雑かつ多様な要求に応えうるAIの実現を目指していることを示しています。

また、Gemini Advancedは、特に英語においてその能力を最大限発揮します。日本語入力にも対応してはいますが、より高度な機能を享受するためには、今のところは英語での利用が望ましいでしょう。

Gemini Advancedを使って検索してみた

Gemini Advancedを使用した具体的な実用例をいくつか紹介してみたいと思います。

おすすめのクレジットカードは何?

「おすすめのクレジットカード」をGemini Advancedに聞いてみました。

すると、様々なクレジットカードのおすすめが表示され、それぞれの公式サイトへのリンクも表示してくれました。

また、情報の出典元(リソース)も明示されている点が特徴です。

また、Geminiには以前から「回答を再確認」という機能があります。

Geminiが出力した内容が、Web上でも同等の事が言及されているか確認できる機能です。

緑色で網掛けされた箇所は、他Webサイトでも同様の言及が確認できた内容であり、その正確性が高いと考えられます。

逆にオレンジ色で網掛けされた箇所は、他Webサイトでの言及は見当たらず、内容の正確性が低い可能性があります。

この「回答を再確認」機能はChatGPTには無いGoogle独自の機能で、AIの弱点でもあるハルシネーション対策にも役立つ事でしょう。

日帰りの旅行プランを立てて

次に、日帰り旅行プランの提案をGemini Advancedに依頼しました。

このときは、鎌倉と箱根の旅行プランが提案され、それぞれの訪れるべき場所や体験について詳しい情報が提供されました。

さらに、具体的な交通手段や予算に関する質問に対しても、具体的なプランが提示され、Googleマップとの連携を通じて詳細な移動ルートが示されました。

これらの例から、Gemini Advancedが提供する情報は、単なる検索結果の列挙ではなく、ユーザーのニーズに基づいた具体的な提案や解答を可能にしていることがわかります。

ただし、Googleマップでの詳細なクエリ処理に関しては正確性に欠ける例もあり、全てのクエリに対して完璧な回答を提供できるわけではないことも明らかになりました。今後の技術的な改善によって、より高い精度と信頼性が期待されます。

■□■□

以上、Gemini Advancedのこれらの実用例を通じて、AI技術が提供する新しい情報検索体験の可能性を垣間見ることができました。同時に、その限界や課題も浮き彫りになり、改善点や弱点も見えてきました。

SEOへの影響と可能性とは

SGEやGemini(旧Bard)の登場により、SEOや検索エンジンマーケティングにも影響をもたらすと予想されます。

これまでの検索体験は、キーワードに基づく結果のリストからユーザーが望む情報を見つけ出すというものでした。

しかし、Geminiを始めとするAIは質問に対して直接、具体的な情報を会話を通して提供します。これにより、対話で個別化された検索体験を実現するのではないかと予想されます。

この変化は、ウェブサイト運営者やコンテンツ制作者にとって、SEO戦略を再考する必要があることを意味しています。

従来のキーワード中心の最適化から、よりユーザーの質問に直接的に答える形のコンテンツを提供することへのシフトが求められるでしょう。このことは、コンテンツの質と情報提供の正確性が以前にも増して重要視されることを示しています。

また、SGEやGemini Advancedが情報の出典を明示する機能を持つことから、信頼できるソースからの情報提供がSEOにおける重要な要素になります。ウェブサイトが提供する情報の信頼性や権威性が、検索結果におけるランキングに直接影響を与える可能性が高まっていると考えることも出来ます。

さらに、近い将来、GeminiやSGEを通じた検索体験がユーザーに受け入れられることにより、検索エンジンを利用する目的自体が変化するかもしれません。情報を単に検索するだけでなく、より複雑な質問に対する解答や、個別化された情報提供が期待されるようになるため、コンテンツの提供方法もこれに適応していく必要があります。

このように、GeminiはSEOや検索エンジンマーケティングにおいて変革的な役割を果たす可能性を持っています。ウェブサイト運営者は、この新しいAI技術を理解し、その影響を受け入れた上で、適切な戦略を立てていくことが求められるのかもしれません。そして、今後のSEOの方向性は、GeminiのようなAI技術の進化に大きく左右されると言えるでしょう。

ウェブ制作者にとってのGemini Advanced

ウェブ制作者の視点からGemini Advancedを見ると、新たなコンテンツ制作ツールとしての可能性が見えてきます。しかし、実際に使用してみると、GPT-4の方がよりプロンプトの解釈や精度に優れていると感じる場合もあります。

例えば、「記事コンテンツを作成し、その後、よりわかりやすく編集してください」というプロンプトをGPT-4に対して与えた時、GPT-4は意図通りに実行してくれることが多いです。

一方、Gemini Advancedでは、意図しない形で要約をしてしまうことがありました。(日本語入力なので、モデルはGemini Pro?)

これら挙動からも、現時点ではGPT4の方が指示の理解度や応答性が高いことを示しています。

また、非常にデータ量が多いプロンプトに対してGemini Advancedを使用した際には、時折「わかりませんのでお手伝いできません」という回答が返ってくることがあります。なお、同じプロンプトをGPT-4にリクエストすると、問題なく処理できていました。

このような結果から、ウェブ制作者にとってChatGPTよりもGemini Advancedを使用する理由が見当たりませんでした。

もし今が2022年、いわゆるChatGPTが出る前であれば、Gemini Advancedのリリースは驚きとなったでしょう。しかし、既に高い精度を持つGPT技術が存在する現在、Gemini Advancedが提供する機能には目新しさを感じにくいというのが正直な印象です。

とはいえ、Googleが今後この分野においてさらに力を入れていくことで、見過ごせないレベルの改善が期待できるかもしれません。ウェブ制作者としては、Gemini Advancedを含めた幅広いAI技術の動向を引き続き注視し、新たなツールの選択肢として検討していくことが重要だと考えています。

Geminiの将来性とAI市場での立ち位置

Gemini Advancedの登場は、Googleが人工知能分野での更なる存在感を示すものと言えます。しかし、同時に、AI技術を巡る激しい覇権争いの中、Googleがどのような立ち位置を確保できるのか、注目される点です。

今回のリリースから見受けられるのは、GoogleがOpenAIやMicrosoft勢に対して、強い競争心を持っていることです。こうした状況は、AI市場を活発化させる一因となり、今後多くのイノベーションが生まれる可能性を高めています。

Gemini Advancedが、現段階でGPT-4やChatGPTと同等、またはそれ以上の性能を発揮しているかは議論の余地があります。しかしながら、Googleがこの分野において非常に力を入れており、技術の進化に伴いさらに高度なAIサービスを提供していくことは間違いないと思われます。

Googleの強みは、膨大なデータと高度な技術開発力にあります。これを活かして、今後Geminiがどのように進化し、AI市場でどのような役割を果たしていくのか、楽しみなところです。

また、AI技術の進化は、単にツールやサービスの性能向上だけではなく、ユーザーの検索体験や情報収集の方法にも大きな変化をもたらすと期待されています。Geminiが検索市場において、ユーザーに対してより個別化された、より直感的な情報提供を可能にするなら、その価値は計り知れないものとなりそうです。

競争が激しいAI市場において、Gemini Advancedを含むGoogleのAI戦略が、今後どのように展開していくかは、多くの関係者の注目するところです。

マイクロソフト社とGoogle社の動向は、生成系AI市場にとってとても重要な動きとなり、引き続きウォッチしていく必要があります。

Geminiの将来性と市場での立ち位置について、私たちは引き続き高い期待を持ちつつ、その進化を見守っていきたいと思います。

※この文章は、YouTube動画をAIで書き起こし、記事化したものです。

]]>
ChatGPTで動画から記事を作る方法https://seolab.jp/blog/turn-video-content-into-articles-efficiently/Sun, 04 Feb 2024 13:27:09 +0000https://seolab.jp/blog/?p=2492

動画コンテンツを文章化することで、より幅広いオーディエンスにリーチできることお気づきですか?過去の動画コンテンツを記事として配信することで、そのコンテンツが持つ集客価値を最大化することが可能です。 今回は、動画を記事化す ... ]]>

動画コンテンツを文章化することで、より幅広いオーディエンスにリーチできることお気づきですか?過去の動画コンテンツを記事として配信することで、そのコンテンツが持つ集客価値を最大化することが可能です。

今回は、動画を記事化する手順や、効率を高めるためのAIツールを紹介します。

動画コンテンツを記事化する事で得られるメリットとは

動画コンテンツをただYouTubeで配信するだけでは、その可能性を十分に活用できているとは言えません。

動画コンテンツを記事に変換することで、動画では捉えきれない別のオーディエンス層を獲得できます。文章を好むユーザーや検索エンジンを通じて情報を得たいユーザーに対しても、その価値を届けることができるのです。

この方法は、多くの企業にすでに取り入れられています。例えば、ABEMA Newsはその一例で、動画コンテンツを記事形式で配信することで、動画とテキストの両方の形式で情報を提供しています。

動画として配信したコンテンツを、ABEMA Timesに記事として公開しています。

記事は、動画の切り抜き画像と動画内容の文章で構成されています。

また、記事化する事で、SEOでも複数の主要キーワードで上位を獲得しており、検索エンジン経由からも潜在読者層も獲得しています。

このように、1つの動画コンテンツを記事化する事で、1つのコンテンツから得られる視聴数を最大化し、より多くのユーザーに対して情報を届けることが可能になります。

動画コンテンツを動画として終わらせるのではなく、記事化することでその価値をさらに高めるこの考え方は、コンテンツ制作者や企業にとって非常に重要な戦略と言えるでしょう。

AIを活用した記事化の流れ

動画コンテンツの記事化は取り組みたいものの、その作業は決して容易ではありません。

記事化するためには、動画の文字起こし、記事構成の作成、文章の再構成、画像の挿入といった一連の作業が必要になります。これらの作業は時間がかかる上、動画制作自体も労力が必要とされます。

そこで今回は、ChatGPTを使った効率良い記事化の手順を紹介します。ChatGPTなどのAI技術を駆使する事で、通常数時間かかる作業を大幅に短縮できます。

具体的には、ChatGPTと文字起こしアプリを組み合わせることで、このプロセスを劇的に改善できるのです。

手順1:動画を文字起こしする

私がお勧めする文字起こしアプリは「Rimo Voice」です。

このアプリの価格は30秒あたり22円で、比較的低コストで高性能なサービスを提供しています。このアプリを利用することで、動画からテキストへの変換を簡単かつ迅速に行うことができます。

mp4などの動画ファイルをそのままアップロードするか、YouTubeの動画ページURLを指定する事で、文字起こしを開始します。

すると、動画内容を文字起こしした結果が表示されます。あとは、右上の「ダウンロード」をクリックするとテキストファイルとしてダウンロードできます。

しかし、ただ単に文字起こしをしただけでは、読み手にとって魅力的なコンテンツとは言えません。

動画コンテンツは、どうしても話し言葉がベースとなっており、そのままでは読みづらく、理解しにくいことがよくあります。

ここで重要なのが、読みやすく、理解しやすい内容に編集する作業です。それには章立てを見直し、言い回しを調整する必要があります。

手順2:ChatGPTで見出しと本文を書く

ここでChatGPTの出番です。

ChatGPTを利用することで、文字起こしした内容から効果的な記事の構成案を作成することが可能になります。

私が実際に行った試みでは、ChatGPTがYouTube動画で話した内容をもとに、タイトル、キーワード、記事の大枠を素早く作り出してくれました。

このプロンプトを通して、文字起こしした文章から記事構成案を作成します。

ここで作成された記事構成案に対して、ChatGPTを通して本文を作成してもらいます。

この流れを見出しごとに繰り返し、文章を作成します。

なお、私はこれらのプロセスを一つにまとめた専用ツールを開発しました。

このツールを使用することで、文字起こしから記事構成案の作成まで、一連の作業をスムーズに行うことができます。これにより、一つ一つ手作業で行う必要がなく、時間と労力を大幅に節約できるかと思います。

手順3:最後は人の手を入れて、読みやすくする

ChatGPTによって生成された文章をそのまま掲載しても、決して読みやすい文章とは言えません。

わかりやすい文章や表現に書き直したり、内容を補足する画像を入れることで、より読みやすく伝わりやすいコンテンツに変わります。

この最後の仕上げは人間が担う所であり、この工程に最も時間をかけるべきでしょう。

すでにChatGPTによるたたき台がある為、ゼロから文章を作成するより遥かに楽に記事化する事が可能です。

私の場合、ChatGPTによるたたき台がある所からスタートする為、この「最後の手直し」に30分以内に終えることが大半です。

いままでは2~3時間の時間を要していましたが、半自動化する事で記事化にかかる時間を30分まで削減でき、コンテンツのブラシアップに時間を集中できるようになりました。

効率的に動画をテキスト化するためのヒント

動画コンテンツをテキスト化する過程において、自社のYouTubeチャンネルに合わせた記事設計が非常に重要です。

どのような内容の動画を配信しており、その内容を好んで読むユーザーにどのように伝えるかを設計することが大切です。この記事設計を踏まえ、適切なAIの活用やプロンプトを設計し、それを自動化するシステムを構築するのが最善と言えるでしょう。

そして、提携化された工程は専用アプリで自動化する事で、動画コンテンツのテキスト化作業にかかる工数を大幅に圧縮できると思われます。

私自身、AIの最適な活用法や自動化アプリの設計についてのアドバイスを提供しております。もし、動画コンテンツを効率的にテキスト化し、より多くの潜在層にリーチする方法をお探しの方は、お気軽にご相談ください。

※この文章は、YouTube動画をAIで書き起こし、要約したものです。

]]>