新しい技術とか古い技術とか関係なく今のhtmlを考える。

SEOに関するTIPS

こんな仕事している割にSEOに関しては他人任せで、あまりぐいぐい行かなかったのですが、 先日仕事でSEO業者と絡みましていろいろ指摘されましたのでその辺をまとめていきます。 ちなみに私これらの記事が正しいと信じて止みませんが、SEO対策の専門業者ではないので記述の間違いや信ぴょう性に関して?な点があるかもです。 そんなときはご一報頂けたらありがたいです。

まずは、言われなくても知ってるよ!っていう基本中の基本から割と最近知ったものまで書き出してみます。

誰でもたいてい知っているSEOの基礎
サイトの中身と更新頻度 まず大前提として、人が絶えずアクセスをしたくなるような良記事を書きましょう。 更新頻度も重要です。そんなに毎日毎日良記事を生産するのも難しいと思うので、 更新が困難な時はニュースやお知らせなどの小さい記事をアップし続けましょう。
正しいマーキング 文章の内容、タグ付けする内容にふさわしいかどうかを見極める。
例えば、明らかにlistとしてマーキングしなければいけないのに、 レイアウトさせやすいからといってtableで作ってしまうのはNG。
キーワード出現率 文章内に程良く引っかかってほしいキーワードを出現させましょう。
文章中に出現するキーワード出現率は5~7%位が適当と言われています。入れすぎるとかえってスパム扱いされてしまうので注意。 しかしそれを順守したところで効果を感じている方はあまりいないようですが・・・。
ページ内リンク ページ内リンクを出来るだけ多くしましょう。
被リンクを増やす こればっかりは自分ではどうしようもありませんが、信頼できる良い記事を配信して被リンクを増やしましょう。 信頼感が生まれ評価がアップします。
しかし相互リンクなど、明らかにSEO効果を狙った被リンクを持っていることが発覚した場合はgoogleでは検索順位を下げられるようになったようです(2013/10現在)。
サイト説明 せっかく検索に引っ掛かっても、一覧表示された時のサイト説明に魅力が無いとユーザーは通り過ぎてしまいます。
人が見たいと思うtitle, keyword, descriptionを考えましょう。
description
keywordsの重複
サイト内の全ページを同じDescriptionとKeywordsで設定すると、検索エンジンから重複コンテンツだと思われマイナス評価を受けるそうです。
SNSを利用して宣伝 ホームページは作って上げておけば勝手に世の中の人が見るだろうと思ったら大間違いです。 世の中に認知して欲しければ、自分で出来る範囲の宣伝をした方がいいです。
隠しテキストを無くす 2011年1月にGoogleがアルゴリズムを変更したとかなんとかで、 今までは見て見ぬふりをされていた「テキストを-999px程左に飛ばす」方法での画像置き換えがNGになったそうです。 作成の際は極力テキストの画像置き換えを避けましょう。

サーバーにsitemap.xmlを置く

sitemapと言っても、よく見るサイトの目次的役割をしている1ページの事ではありません。

作成者の意図に沿ったディレクションを記したファイルを大手検索エンジン(Google, Yahoo, Msnなど)に登録し、 検出が難しく埋もれてしましそうなページの存在を教えてあげます。

サイトマップの中身の解説に関しては以下で分かりやすく説明しています。

sitemaps.org
「サイトマップとは何か」からファイルの中身まで分かりやすく解説されています。
  1. 1. sitemap.xmlを作る

    サイトマップ作成は、テキストパットを使い自分で作成も可能ですが、 いろいろな所で以下のような作成ツールが出ているのでこれを利用するといいかもしれません。

    Sitemap Generator
    設定できる項目は、更新頻度、優先度、最終更新日です。 ページごとの設定はできないみたいです。 500ページまでのサイトに対応しています。
    Sitemap.xml Editor
    設定できる項目は、更新頻度、優先度、最終更新日、除外ディレクトリ、同一タイトルURLの除外項目です。 ページごとの設定はできないみたいです。
    FC2 サイトマップ作成ツール
    設定できる項目は、更新頻度、優先度、最終更新日でページごとに設定が可能です。
    Google、Yahoo、MSNへの登録状況も調べてくれるので便利です。
  2. 2. 検索エンジンに登録

    Google, Yahooをはじめとしたターゲットとされたい大手検索エンジンに登録します。

    GoogleにURLを追加
    該当URLと明記されているセキュリティコードを入力します。
    Yahooカテゴリ登録
    サイトのコンセプトと合うカテゴリを選択して登録します。
    詳しいやり方を検さぽさんのサイトで見つけました。
    bingにサイトを送信
    bingとは、MSN「Live Search」の後継サービスです。
    該当URLと明記されているセキュリティコードを入力します。

サイト登録は以上です。
申請したサイトが全て登録されるわけではないそうですので、私のサイトでも"一応ね、"という感じで登録しておきました。

検索エンジンにクロールされたくないページを指定する

検索エンジンロボットに登録されたくない、または追跡してほしくないリンクのあるページを予めロボットに教えることでスムーズにクロールしてもらったり、 有料リンクを嫌がるGoogleなどからの評価を下げない為に設定するんだと思います(多分)。

ページをクロールさせたくないのはどんな時?
信頼できないコンテンツがある 信頼できないユーザーからの書き込みや信頼できない、または安全を保証できないリンクの貼り付けがあるページなど。
有料リンクページがある 有料リンク先サイトまで分析され検索結果に影響を与えたり、 ユーザーに悪影響を及ぼすような有料リンクのあるページなどに設置します。
クロールの優先順位付け 検索エンジンロボットには「登録」「ログイン」などのリンクをクロールさせる必要がないので、 予めnofollow属性を指定しておき他のページを優先的にクロールさせるなど。

方法その1 : metaで指定する

検索エンジンロボットに登録されたくない、または追跡してほしくないリンクのあるページのhead内に設置します。

[ 記述例 ]

<meta name="robots" content="noindex,nofollow" />

contentの中身は場合により変更します。

index 検索エンジンに登録し、検索結果として表示することを許可します。
noindex 検索エンジンの登録を拒否するので検索結果として表示されません。
follow ページ内にあるリンク先を追跡することを許可します。
nofollow ページ内にあるリンク先を追跡することを拒否します。

方法その2 : robots.txtを置く

robots.txtは検索エンジンロボットのアクセスを制限します。
サイト内にインデックスされたくないコンテンツが含まれている場合は設置しますが、全てのロボットに有効ではありません。 たまに解釈を間違えたり、無視するロボットも存在するようです。

使用言語
User-Agent ユーザーエージェントを指定。
全てのユーザーエージェントを指定する場合は"*"を、個別に指定したい場合は個別に記載します。
Allow アクセスを許可します。
Disallow アクセスを許可しません。

例えば、[ http://www.yoursite.com ] というサイトにrobots.txtを設置するという記述例を見てみましょう。

[ 記述例 ]

User-Agent: *		("*"は全ての検索エンジンロボットということです。)
Disallow: /temp/	(http://www.yoursite.com/temp/をDisallowします)
Disallow: /test1.html	(http://www.yoursite.com/test1.htmlをDisallowします)

robots.txtはサイトのルート階層に設置します。
テキストパットにこのように書き込み、ファイル名をrobots.txtにしてルート階層にアップしたら終わりです。

URLを正規化する

検索エンジンはサイトを認識する際、wwwの有無、index.htmlの有無によってそれぞれが別のサイトだと思ってしまいます。 そうなるとサイト評価が分散したり、重複コンテンツによるマイナス評価につながってしまいます。

それを避ける為に、今回はhtaccessを使って正規URLにリダイレクトさせる方法をご紹介します。
やり方は簡単、以下のコードの"nemuchan.com"の部分を任意のドメインに変えて.htaccessでアップするだけです。

[ htaccess記述コード ]

RewriteEngine on
RewriteCond %{HTTP_HOST} ^nemuchan.com
RewriteRule ^(.*)$ http://www.nemuchan.com/$1 [R=301,L]
RewriteCond %{THE_REQUEST} ^.*/index.html
RewriteRule ^index.html$ http://www.nemuchan.com/ [R=301,L]

リンク

WEB屋が使うSEOツール
WEB屋が使う、SEOやウェブデザインに役立つサービスやツールを無料のものを中心にまとめてあるページ。
ohotoku.jp
ちょこっと便利な無料SEOツール集。「キーワード出現率チェック」が便利。
robots.txt、sitemap.xml、meta情報の注意点
robots.txt、sitemap.xml、meta情報の注意点
(c) 2011-2015 naoko okihara