ブロガーのための5ポイントのテクニカルSEOチェックリスト

ブログ投稿のほとんどの検索最適化は、技術的でない側面を中心に展開しています。

ターゲットオーディエンスの関心に対応する関連性の高い高品質のコンテンツを作成し、当局のWebサイトの所有者に連絡して、関係を開始し、バックリンクを取得します。

ただし、SEOは通常のページ上の手法とページ外の手法に限定されません。

キーワード、リンク構築、ブログ投稿コンテンツを超える必要があります。あなたがあなたのウェブサイトの強力な技術的基盤を構築する場合にのみ、それは検索エンジンの結果でランク付けされる可能性が最も高くなります。

ほら、グーグルはもっと洗練されてきた。ただし、検索エンジンのボットがWebサイトのアーキテクチャを理解できるように支援できれば、コンテンツを簡単にクロールしてインデックスに登録できます。また、検索ボットが好む方法で情報を提供することで、優れた検索結果を抽出できます。

あなたは技術的なSEOの一部である側面が何であるか疑問に思っていますか?

これには、URLの最適化、適切なリンク構築によるWebサイトのナビゲーションの完璧化、Webサイトコードの修正、画像への適切なタイトルタグまたはaltタグの使用が含まれます。

さて、そのような専門用語を聞いて緊張しているのかどうかは理解できます。結局のところ、ブログは簡単なソーシャルメディアメディアでなければなりません。

そのため、この記事では、ブログ投稿の初心者にわかりやすく、読者に優れたユーザーエクスペリエンスを提供する技術的なSEOチェックリストを用意しました。

ニール・パテルとの協議
私の代理店があなたのウェブサイトへの大量のトラフィックをどのように促進できるかをご覧ください

SEO-大量のSEOトラフィックのロックを解除します。実際の結果をご覧ください。
コンテンツマーケティング-私たちのチームは、共有され、リンクを取得し、トラフィックを引き付ける壮大なコンテンツを作成します。
有料メディア-明確なROIを備えた効果的な有料戦略。
電話を予約する

テクニカルSEOでオーガニックトラフィックを増やす準備はできましたか?

それでは、始めましょう。

1. Screaming Frogを使用してWebサイトをクロールし、乱雑なURL構造をクリーンアップします
恒星のサイトアーキテクチャは、検索エンジンからあなたに切望されている愛を得るでしょう。

Screaming Frog(無料版では500 URLの制限)をダウンロードして、Webサイトのクロールから始めます。重要なオンサイト要素を取得し、重複するページタイトル、メタ説明を検索し、URL構造を確認します。

開始するには、空白のボックスにルートドメインを入力し、スタートボタンを押します。

image14

このツールは、Webサイトのサイズに応じて、結果をすばやく処理します。上部に確認できるプログレスバーがあります。

分析したら、[応答コード]タブを確認することから始めます。 URLのHTTPステータスコードが表示されます。

image23

これらのステータスコードとリダイレクトの重要性については、ポイント2で説明します。

また、Google Search Consoleにログインして、ウェブサイトのクロールエラーをクロスチェックする必要があります。クロールエラーは、新しい検索コンソールデザインのインデックスカバレッジレポートで確認できます。

 

次に、ツールの[URL]タブを確認し、列を長さで並べ替えます。

image21

すべての検索エンジンに適したURLは短く(4〜5語)、内部のコンテンツを説明しています。詳細については、タイトルタグとメタディスクリプションを使用してください。

インデックス作成の問題を引き起こす可能性のある不自然に長いURLと非ASCII文字のURLを見つけます。 Screaming Frogには、ボタンをクリックするだけでそのようなURLをソートするためのフィルターがあります。

説得力のあるパンチの効いたタイトル、適切な画像サイズ、説得力のあるメタディスクリプションを確保することは、ページ上のSEOの一部です。そのため、ブログ投稿で画像が認識されて評価されるようにaltタグを適切に定義することを思い出させる場合を除いて、これについては説明しません。ツールには、これらのアイテム用のタブとフィルターがあります。

このツールの重要な側面は、XMLサイトマップを作成することです。これは、コンテンツがどのように編成されているかを示す検索エンジンのWebサイトロードマップです。これは検索結果に不可欠です。

上部のナビゲーションバーを使用して、[サイトマップ]>[XMLサイトマップの作成]で機能を見つける必要があります。

大規模なWebサイトには、複数のサイトマップを含めることができます。 1つのXMLサイトマップに50,000を超えるURLを含めることはできず、サイトマップのファイルサイズは10MB未満である必要があるためです。

作成したら、[クロール>>サイトマップ>>サイトマップの追加/テスト]を使用して、Google検索コンソールからサイトマップを送信できます。

 

また、ユーザーが読み取れるHTMLサイトマップを作成することをお勧めします(検索エンジンにも役立ちます)。 WordPressを使用している場合は、YoastのSEOプラグインを使用してHTMLサイトマップを作成できます。


2007年にさかのぼると、GoogleとYahooは、サイトマップをすべての検索エンジンに送信する必要なしに、サイトマップの自動検出のためのシステムを使用するために団結しました。

そのため、ウェブサイトのrobots.txtファイルでサイトマップの場所も共有する必要があります。この記事では、サイトマップの場所を統合してロボットファイルを作成する方法について説明します。

プロのヒント:検索エンジンがあなたのウェブサイトが何であるかを理解するのを助けるためにあなたのウェブサイトのコンテンツをサイロ化します。これは、コンテンツをわかりやすいカテゴリに分類し、3〜4回のクリックですべてのWebサイトページにアクセスできることを意味します。

クリック数が4を超えるページは、クロールが困難になり、検索結果が低下する可能性があります。だから、右を使用してください

 

tフィルターとファセットナビゲーション。数百万の結果を数回のクリックで本質的な数に絞り込むことができます。

image15

2.リダイレクトを適切に実装し、壊れたリンクを修正して、クロール予算を最適化します
良いリンク構築は、人々がコンテンツを見つけられるようにすることから始まります。最も重要なステータスコードである301、302、404について話しましょう。

リンク構築時に正しいバージョンのリダイレクトを使用する方法を理解することから始めます。多くのウェブマスターは以下の間で混乱します:

301 –元のページの権限の90〜99%を渡す永続的なリダイレクト。
302 –元のページがまもなく復元されることを検索エンジンに示す一時的なリダイレクト。
301ではなく302リダイレクトを使用すると、検索エンジンが混乱します。また、301リダイレクトがしばらく続くと、トラフィックが失われます。

経験則として:

ウェブサイトにページを表示する必要がなくなった場合は、301で関連性のある更新されたページにリダイレクトします。

また、404エラーコードが表示されているページにも特に注意を払う必要があります(ポイント1のGoogle SearchConsoleとScreamingFrogで見つかりました)。

それらはあなたのウェブサイトのページかもしれません:

新しい場所に移動されました、
他のウェブマスターによって誤ってリンクされていた、
あなたのウェブサイトからURLが削除されました。
要するに、これらの誤ったURLはGoogleの時間を浪費し、ウェブサイトに存在しないコンテンツをインデックスに登録して検索結果に損害を与えるということです。

どのように?

Googleは、ページランクに基づいてすべてのウェブサイトにクロール予算を割り当てます(これは、表示されているものではなく、Google検索チームが使用する内部指標です)。

存在すらしないリンクに貴重な予算を浪費すると、重要なURLをスキャンするための帯域幅が制限され、最終的には検索エンジンがそれを却下し、人々が最新のブログ投稿を簡単に見つけられなくなる可能性があります。

そのため、ブランドの個性を示すユーザーフレンドリーな404ページを作成するか、リンクジュースを保持するために404エラーページをウェブサイトの関連ページに301リダイレクトします。

image22

Googleがウェブサイトの最も重要なURLを確実にクロールするには、意味のあるユーザーフレンドリーな内部リンクが必要です。当然、キーワードアンカーテキストを使用して、ユーザーとボットを記事内の他の関連ページに誘導します。

キーワードの関連性を構築し、ウェブサイトのクロール性を大幅に向上させます。

(内部リンクに基づいて)最も重要なページを特定する場合は、Google検索コンソール内の内部リンクレポートにアクセスできます。これを理解することは、将来のリンク構築にも役立ちます。

 

彼らの分析では、HubSpotは、404ページが実際には404サーバー応答ではなく200応答を解決していることを発見しました。これは、404ページをクロールしてインデックスに登録するようにGoogleに依頼していたことを意味します。

さらに、彼らは他のウェブサイトからの多くの誤ったインバウンドリンクも見つけました。たとえば、彼らのURL – http://www.hubspot.com/products/inbound-marketing/には370のリンク(.govリンクを含む)がありました。そして、そのようなページは彼らのウェブサイトにも存在しませんでした!

image00

「見つからない」ページをスキャンした後、2,000を超える異なるドメインからの8,000を超えるバックリンクがあることがわかりました。

うわー!

image09

「見つからない」ページを削除して、404ページに移動しました。また、301リダイレクトを設定し、間違ったURLの検索者をWebサイトの関連ページに送信します。

3.コードからジャンクを削除し、サイトの読み込みが速いことを確認します

洞窟に住んでいない限り、ウェブサイトをすばやく読み込むことの重要性はすでにご存知でしょう。

1秒おきに遅延すると、コンバージョンで7%の損失が発生する可能性があります。あなたは検索エンジンがあなたを見つけ、あなたを速く見つけ、そしてできるだけ早くロードすることを望んでいます。

image06

また、速度が速いほど、検索ランキングも高くなります。

ただし、読み込みに3秒以上かかると、40%の人がウェブサイトを閉じます。スピードを上げることで、注意力の低い人々に答えを届けることができます。より多くのエンゲージメント、より高いユーザーエクスペリエンス、より高いランキングが得られます。

GoogleのPageSpeedInsightsツールを使用して、ウェブサイトを悩ませている問題を理解することから始めましょう。ツール内にURLを接続し、[分析]ボタンを押すだけで、検索エンジンがサイトをどのように認識しているかを知ることができます。

 

80を超えるスコアは問題ありません。ただし、ツールによって提示される問題の修正を検討する必要があります。

ウェブサイトの読み込みにかかる正確な時間を知りたい場合は、Pingdomにアクセスして速度テストを行ってください。

 

ウェブサイトの読み込み時間、ページサイズ、グレード、ウェブサイトが送信しているリクエストの数が表示されます。

image03

Webサイトが7秒以上で読み込まれる場合は、ツールによって提案された推奨事項に取り組む必要があります。

無料のコンテンツ配信ネットワークであるCloudFlareのインストールから始めます。帯域幅を60%節約し、Webサイトから送信されるリクエストの数を大幅に減らすことができます。

次に、WordPressユーザーは、W3TotalCacheなどのキャッシュプラグインをインストールできます。

これらのいくつかの変更を行うだけで、ChrisはWebサイトの読み込み時間を9.18秒から1.9秒まで8秒短縮することができました。

 

8秒。

image05

他の多くの一般的な問題により、読み込み時間が遅くなり、検索エンジンの成功に悪影響を及ぼします。ベンチャーハーバーは、ここでサイトの速度を向上させるために22の決議をまとめるのに素晴らしい仕事をしました。

モバイルとデスクトップでのウェブサイトの読み込み速度を改善するには、さまざまな手順が必要です。優れたモバイルエクスペリエンスも同様に重要であるため、このモバイルランディングページの記事でモバイルウェブサイトを高速化するためのヒントを確認してください。

4.重複およびシンコンテンツの問題を解決します
薄くて重複したコンテンツの問題は、コンテンツの品質が低いことでウェブサイトにペナルティを課すGoogleの2011年のパンダアップデート後に表面化しました。

重複はあなたのウェブサイトで最も関連性の高いページを見つけようとしている検索エンジンを混乱させ、あなたは検索トラフィックを失うかもしれません。

Matt Cuttsによると、Webの約25〜30%は重複コンテンツです。

重複コンテンツの問題をどのように修正しますか?

SitelinerでWebサイトをスキャンすることから始めます。最大250ページをクロールし、一致率で並べ替えられた重複コンテンツを表示します。

 

Google検索コンソールを使用して重複する問題を確認することもできます。 「検索の外観>>HTMLの改善」に進み、番号をクリックして特定の重複コンテンツのケースを取得します。

image01

状況に応じて、重複コンテンツの問題を解決するために、次の3つの手順のいずれかに頼ることができます。

1.「noindex」タグを実装する–ページ付けが原因でコンテンツの重複の問題が発生している場合は、メタロボットのタグ値を「noindex、follow」に設定できます。これにより、検索エンジンは指定されたページのリンクをクロールしますが、インデックスには含まれません。

2.複製ページの<head>にrel=“ canonical”タグを実装します–これは、ページの優先バージョンをGoogleに表示する方法です。

また、セッションID、アフィリエイトコード、およびURLパラメータの結果として作成された意図しない重複コンテンツの問題を解決します。

訪問者を同じページに誘導する3つのURLを次に示しますが、検索エンジンで個別のページとしてインデックスに登録され、ペナルティが発生する可能性があります。

neilpatel.com/blog/13-secrets-thatll-boost-your-facebook-organic-reach/
neilpatel.com/blog/13-secrets-thatll-boost-your-facebook-organic-reach/?sessionid=5349312
neilpatel.com/blog/13-secrets-thatll-boost-your-facebook-organic-reach?ref=email/
image07

3.重複するコンテンツの量を削除または削減する–これは、実装が可能な場合の簡単なソリューションです。

5.SERPのリッチスニペットで優位に立つ
スキーママークアップについて聞いたことがありますか?

これは、ほとんどの検索エンジンで推奨されている構造化されたデータ語彙の標準です。

検索ボットはこのデータを使用して、コンテンツを理解し、ページを分類し、SERPにリッチスニペットを表示します。スキーママークアップは検索ランキングの要素ではありませんが、クリック率にプラスの影響を与える可能性があります。

image16

スキーマは新しいものではありませんが、手作業が必要なため、多くのウェブマスターはスキーマを実装していません。 Ravenによる2億を超えるページクロールでは、ページの80%がスキーママイクロデータを使用していませんでした。

image26

Googleマークアップヘルパーを使い始めることができます。データをURLにタグ付けするプロセスを段階的に説明します。この詳細なスキーママークアップチュートリアルを実行できます。

WordPressを使用している場合、SchemaCreatorプラグインはいくつかの値を提供するのにも役立ちます。

image08

結論
検索結果を改善するための技術的なSEOの重要性を損なったり過小評価したりしないでください。 HubSpotは、Webサイトに技術的なSEO変更を加えることで、わずか1か月でトラフィックを51.14%増加させることができました。

image11

この記事の5ポイントのフレームワークは、初心者でも簡単に実装できます。そして、それはあなたのSEOの努力のための強力な基盤を築くでしょう。

ソーシャルメディアは、ブログ投稿を単にバイラルに送信するだけではありません。適切なタイトルタグ、altタグ、およびすべての適切なリンク構築コンポーネントを使用して、検索エンジンに基盤を提供する必要があります。

検索エンジンはサイトをユーザーエクスペリエンスに最も関連性の高いものと見なすため、コンテンツの重複を防ぎ、説明したツールを使用してトラフィックを改善します。

それでも技術的なSEOの概念に混乱している場合は、私がお手伝いします。

あなたがあなたのウェブサイトの技術的なSEO監査を行うことを妨げる一番の問題は何ですか?

または、SEOの技術的な専門家である場合は、以下のコメントで追加のヒントを共有してください。