Strict Standards: Non-static method Protector::getInstance() should not be called statically in /home/suehirogari/suehirogari.com/xoops_trust_path/modules/protector/include/precheck_functions.php on line 12

Strict Standards: Non-static method XCube_Root::getSingleton() should not be called statically in /home/suehirogari/suehirogari.com/public_html/include/common.php on line 18

Deprecated: Non-static method XCube_Root::getSingleton() should not be called statically, assuming $this from incompatible context in /home/suehirogari/suehirogari.com/public_html/modules/user/preload/Primary/Primary.class.php on line 13
seo対策カテゴリのエントリ | 社内SEのウェブ制作

2015.01.09seo対策

1000ページ以上のsitemap.xmlを作成はCrawler-Watch

1000ページ以上をウェブ上で自動生成してくれるサービスが見つからず、困っていましたが、英語表記のソフトですが見つかりましたので、ご紹介いたします。

GSiteCrawler

右上の「Download」から、Crawler-Watchというソフトをダウンロードし、
GSiteCrawler-123-full.exeを起動し、インストールします。

Crawler-Watchの日本語説明

上部メニューのAdd new projectをクリック

まずは、上部メニューの Add new project


Main address of your website[directroy]
あなたのホームページのアドレス 例:http://hogehoge.com/

Name for this project
この設定の名前 ※自動で、ドメイン名が入力されます。特にこだわりがなければ、そのままで結構です。

step1of4:Website Address

step2 of 4:some options オプションについて


these options define how the program will check your site and which pages it should look at.if your's unsure,just leave them with the default settings.
あなたのサイトやページをどのようにチェックすかどうかをこのオプションで設定します。もし、良くわからなければ、デフォルトの設定のままで結構です。

-----------------------------------------------------

□ URLs are case-sensitive[Linux/Unix-servers]
Some servers think that files with a different case[e.g. /page.htm and /PAGE HTM] are different file[usually Linux or Unix server]. Ohter servers ignore the case[e.g. Microsoft Windows servers]
□アドレスは大文字と小文字を区別する
リナックスとユニックスサーバーのように、サーバーによっては、大文字と小文字を区別します。一方、ウィンドウズサーバーなどの場合では、大文字と小文字の違いは無視されます。

□ Include default filters for Session-IDs?[phpsessid,phpsessionid,sessionid,session,etc.]
Session-IDs are special parameters that some server-programs add to links. They usually look like this:'...&session=AKLSJDAKHUIEY7.You should not include these in a Google Sitemap. this option will remove the most used session-IDs automatically.
□セッションIDによるフィルター(を利用したURL)を含めます。
セッションIDはアドレスに特別なパラメーターを足します。それらはこんな形式です。「.....」この様な形式のURLはグーグルのサイトマップファイルに含めるべきではありません。このオプションはよく使われるセッションIDを自動的に削除するオプションです。

List of file-extensions to check:
asp,aspx,cfm,cgi,do,htm,html,jsp,mv,mvc,php,php5,phtml,pl,py,shtml
File extensions are the endings of the file. Dome files can be checked by this crawler,some can't.The crawler can only check text-based files-these are also the only ones allowed for Google Sitemaps.
チェックする拡張子の一覧
拡張子とは、ファイル名の一番サイトについているそれです。このクローラーはいくつかのファイルをチェックできますが、いくつかのファイルは、テキストベースのファイルのみ可能です。これらは、グーグルサイトマップに推奨されています。

Ohter file -extensions to list inthe sitemap file:

□Images:gif,jpeg,jpg,png,tif イメージファイル
□Videos; asx.avi,mpeg,mov,ram,swf,spl,wma,wmv 動画ファイル
□Office files:dnl,doc,lwp,pdf,ppt,rtf,wks,wri,xls,xpdf オフィス系ファイル
□Other files:log,mid,mp3,txt,wav 音楽ファイル

※画像や動画、音楽ファイルはクロールが必要無いので、チェックを外します。

step3 of 4:Your FTP-Server


if you want to upload your sitemap file automatically,you can specify your FTP server here.
もし、FTPサーバー経由でサイトマップを自動でアップしたい場合は、FTPサーバーを登録してください。

□Upload sitemap file[s] via FTP

※自動は怖いので、設定しませんでした。

step4 of 4:What can I do for you today?


These are some of the steps I can do for you today. I woukd suggest doing them all.
今回行う作業を指示してください。

□ Read ROBOTS.TXT
The file ROBOTS.TXT can be used to tell search engines where they shouldn't be looking. It's usually used to make sure that administrative pages aren't listed,etc. If you have a ROBOTS.TXT,it's important that you also exclude these areas in your sitemap files.
ROBOTS.TXTファイルを読み込む

□ Check for custom file-not-found error pages
Some server have custom 'file-not-found' pages which look like normal pages. If a server has dhis,it can be hard for a search engin[or me]to tell if a page really exists or if it's missing.With this option I can check for that[but you'll need to tell me what part of the page is the error message].
独自の404エラーページを読み込む

□Import known pages from Google
Unless this is a really new site,Google will already know something about your pages. With this option,I'll check with Google first.Doing that can help the program get started faster.
すでにGoogleに登録されているページを含める

□Scan your website now
If you're satisfied with these settings,I can start scanning your website right away.
今すぐにスキャンを開始する

クロールが完了しても、URL list ページに何も表示されていない場合は、[ Refresh Table ]ボタンを押して、ページを更新しましょう。すると先程まで表示されていなかったリストが表示されます。

 

 

 


このカテゴリの人気記事



  • コメント (0)
  • トラックバック (0)
  • 閲覧 (11857)
2014.12.29seo対策

SEO内部対策の効果ランキングベスト5

  1. タイトルの変更
  2. キーワード数の調整
  3. テーマの際立たせ
  4. 内部リンクの増設
  5. 有用でないページのnoindex化

そこで、自分のサイトで行ったこと。

  • 一番左に出したいキーワードがくるようにタイトルを意識して作る
  • meta keywordで設定したキーワードで、重要度の高い順にキーワード数が多くなるように調整
  • チェックツール:http://www.searchengineoptimization.jp/keyword-density-analyzer
  • トップページは一番重要度の高いキーワードにボールドタグを一つ使う。
  • また、中ページは、そのキーワードと完全に一致するキーワードをテーマとしない。
  • 内部リンクを増やす
  • ユーザーに有用でないページをnoindex化する

また、以下のポイントも重要です。

サイトの表示速度(サイトパフォーマンスの最適化)
使用した表示速度計測ツール:http://gtmetrix.com/

たとえば、javascriptを読み込む前に、cssファイルを読み込ませるなど、
参考:http://vavevoo.web.fc2.com/page/contents/c-062-page-speed.html

エックスツーサーバーは、簡単に表示速度を上げれます

エックスツーサーバーのサーバーパネルに
mod_pagespeed
拡張モジュール「mod_pagespeed」を使用することにより
Webサイトのコンテンツを最適化し、表示速度の向上および転送量の軽減を図ります。
 

というモジュールが用意されていました。
これを使うことにより…勝手にgzipを利用した最適化がされてました!!

追記:googleウェブマスターツールで提供されているPageSpeed Insightでもチェック

JavaScriptの読み込みを遅らせる(非同期にする)方法は以下です。

<script src="hoge.js"> から <script async src="hoge.js">

表示方法に関係しない修飾的な動きを付け加えるJavascriptであれば、非同期にした方が読み込みスピードが上がります。

ウェブマスターツールのコンテンツキーワードで評価されているキーワードチェック

ウェブマスターツールのコンテンツキーワードで、評価されているキーワードをチェックして、意としていないキーワードの重要度が高ければ、そのキーワードの数を減らして、注力したいキーワードの比率が増えるように調整しましょう。(やりすぎは評価を落とします。)


このカテゴリの人気記事



  • コメント (0)
  • トラックバック (0)
  • 閲覧 (9992)
2014.12.29seo対策

在庫0の商品ページや求人終了ページの扱い方

大規模なECサイトや求人サイトの場合、在庫なしまたは、終了した求人のページは、
404エラーページを表示して、検索ロボットに知らせてあげます。
301で類似ページに移動させるのは、ユーザーを惑わせてしまうので、お勧めしていません。

http://www.suzukikenichi.com/blog/how-would-google-recommend-handling-ecommerce-products-that-are-no-longer-available/

ドメイン内検索パネルの検索結果0ページについて

大規模なECサイトや求人サイトは、独自の検索パネルを利用していることが多いと思いますが、検索結果0のページ、または、過去に検索エンジンに登録された一覧ページの取扱いについては、
こちらも可能であれば、404エラーを返すのが好ましいです。
ただし、ページ構造上404エラーを返すことが不可能であれば、robots.txtで、インデックスされないように操作することが好ましいです。
可能であれば、検索結果の2ページ以降はnoindexを指定したほうがいいのでしょうか。

http://www.suzukikenichi.com/blog/how-google-hanldes-empty-review-sites-in-search-results/


このカテゴリの人気記事



  • コメント (0)
  • トラックバック (0)
  • 閲覧 (9536)
2014.12.26seo対策

求人サイトの募集終了後のページをどのように扱うのが適切なのか

GoogleのMatt Cutts(マット・カッツ)氏がECサイトで在庫切れになったり、販売が終了したりしたページをどのように扱うのが適切なのかを説明しています。

  • 小規模EC(求人)サイトでは関連商品の紹介
  • 大規模EC(求人)サイトでは404
  • 期限切れがあるサイトではunavailable_afterタグ

小規模求人サイトでは関連求人ページの紹介

例えば、自社の求人を10件から20件くらいの少数の求人を扱っているケースです。
1つ1つのページを時間をかけて丁寧に作成ていると思います。

こういったケースでは、求人が終わった案件を見に来たユーザーが興味を持つと思われる、似た求人のページを紹介してあげると親切です。

大規模求人サイトでは404

求人数が数百点、数千以上ある一般的な求人サイトのケースです。

再募集の予定がないのであれば、ページを削除し404エラーを返します。
もはや応募できない求人のページを見たユーザーは不満に感じるでしょう。

404ページは、ソフト404とハード404の2種類があります。
ソフト404は404ページが表示されているものの、サーバーのレスポンスは通常のページを開いているときと同じ200を返している状態です。
ソフト404はSEOにとって、好ましくない状態ですので、かならずサーバーのレスポンスがきちんと404を返しているかどうか、確認してください。

確認するサイトhttp://httpstatus.io/

perlプログラムで、404ページに転送処理をかけている場合は、
転送処理を行う前に、以下のコードで404を出力します。

print "Status: 404 Not Found\n";

期限切れがあるサイトではunavailable_afterタグ

グルーポンなどのチケット購入サイトなどは、「○月○日まで有効」といった感じで、期限を設定している場合も良くあります。

このように、内容に有効期限があるページ、例えば、販売終了日時があらかじめ設定されているような商品ページや、終了日が決まっているイベントやキャンペーンなどの案内ページにはunavailable_afterタグを設定します。

すると狩猟後に検索結果に出てこないようにすることが出来ます。
unavailabe_afterタグは指定した時間を過ぎると検索結果から非表示にできるrobots metaタグです。

googleはunavailable_afterタグをサポートしており、適切に処理します。

類似求人ページへの301リダイレクトはどうなのか

にた求人のページへの301リダイレクトどうだろう?と考える人がいるかもしれません。

Matt Cutts氏はこの方法に全く触れていません。

全般的に、301リダイレクトは推奨されない処理方法です。

Aという求人を求めてやってきたのに、似ているからと言ってBの求人へ気づくことなく転送することはユーザーを惑わせます。

ベストプラクティスを学んで、適切なページ運営をしましょう。


このカテゴリの人気記事



  • コメント (0)
  • トラックバック (0)
  • 閲覧 (9610)
2014.11.21seo対策

広告・サイト製作に役立つ!ネット視聴率(ページビュー)ランキング

http://www.seomastering.com/
Co lumb


http://donnamedia.shoeisha.jp/

https://moz.com/

http://www.alexa.com/siteinfo

https://ja.ahrefs.com/site-explorer/

hanasakigani.jp(ハナサキガニ)
http://hanasakigani.jp/serp.html


競合リンク被リンクチェックツール

上位表示させたいキーワードの競合他社がわかるだけでなく、
そのサイトの被リンクの数、1ページあたりのリンクの最大数、googleページランク、ヤフーディレクトリの有無、ドメイン年齢までわかります。自サイトよりも上位にあるサイトを分析して、SEO対策のお手本としましょう。


マイサイト被リンクチェックツール

その自サイトだけでなく、他ホームページ(url)の被リンク先がわかります。
自サイトよりも上位表示されているサイトの被リンク先をチェックして、参考にしましょう。


このカテゴリの人気記事



  • コメント (0)
  • トラックバック (0)
  • 閲覧 (13397)


キーワードでサイト内を検索
人気のエントリ