تبلیغات
اکو تبریز - بهینه‌سازی موتور جستجو
اکو تبریز
صفحه نخست       پست الکترونیک          تماس با ما              ATOM            طراح قالب
گروه طراحی قالب من گروه طراحی قالب من گروه طراحی قالب من گروه طراحی قالب من گروه طراحی قالب من
بهینه‌سازی موتور جستجو، (به انگلیسی: Search engine optimization)، یک روند مناسب برای اصلاح دید وب سایت یا صفحه وب در یک موتور جستجوی طبیعی و یا الگوریتمی است. اصولا وب گاه‌هایی که بالاترین مکان بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدید کننده زیادتری از طریق موتورهای جستجو بدست می‌آوردند. "SEO" توانایی انواع جستجو را دارد، از عبارت : جستجوی تصاویر، مکانی، جستجوی فیلم زیبا ، جستجوی علمی، جستجوی خبری و صنعت ویِژگزینشه در رأس موتور جستجو هستند .

مقالات جدید سئو

به عنوان استراتژی بازاریابی اینترنتی ،"SEO" به چگونگی کارکردن موتورهای جستجو اینکه چه چیزی جستجو می‌شود، رسیدگی می‌کند همین‌طور کلمات کلیدی تایپ شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار می‌گیرد را مورد ارزیابی قرار می‌دهد. بهینه‌سازی وب وبسایت حاوی گسترش مطالب موجود در سایت و HTML و برنامه نویسی مربوط به هر دو همین طور رابطه بین کلمات کلیدی حذف موانع مربوط به کار های نمایه سازی در موتور جستجو ترویج وب سایت برای افزایش تعداد لینک دهنده و یا لینک‌های ورودی، از دیگر تاکتیک‌های جستجوگرها است. در کل "SEO" به مفهوم بهینه‌سازی موتور جستجو است.
تاریخچه

از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند، مدیران وب سایت‌ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی سایت‌ها برای موتورهای جستجو نمودند. در ابتدا تمام کارهایی که مدیران وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه یا "URL" به موتورهای مختلف ی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه بهبقیه صفحات از داخل صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود. فرایند به این صورت است که عنکبوت موتور جستجو، صفحه را دانـلود آنرا در سرور موتور جستجو ذخیره می‌کند یک برنامه دیگر موسوم به ایندکس کننده، اطلاعات مختلف ی را در مورد ٔ صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و مکان قرارگیری آنها در صفحه، و نیز وزن ویِژگزینشه واژه‌های بخصوص، و تمام لینک‌های موجود در صفحه، که پس جهت خزش در زمانی دیگر، در دستور کار قرار می‌گیرد.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای وبسایت خود در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا کرد.

طبق نظر نقد گر صنعتی به نام دنی سالیوان (به انگلیسی: Danny Sullivan) جمله بهینه‌سازی موتور جستجو اقطعا لاً در سال ۱۹۹۷ مورد مصرف قرار گرفت. در ۲ ماه می ۲۰۰۷، جیسون گمبرت (به انگلیسی: Jason Gambert) تلاش کرد تا دفتر ثبت علائم تجاری آریزونا (به انگلیسی: Arizona) را متقاعد نماید که "SEO" فرآیندی است حاوی دستکاری واژگان کلیدی و نه سرویس بازاریابی از این طریق واژه "SEO" را به عنوان علامت تجاری ثبت نماید . وکیل تحلیل کننده پرونده، دلیل نامنسجم وی را مبنی بر اینکه « ی "SEO" نمی‌تواند ثبت تجاری شود آن هم به دلیل اینکه به فرایند عمومی دستکاری واژگان کلیدی اطلاق می‌گردد، می‌تواند یک علامت خدماتی برای تأمین خدمات بازاریابی در حوزه رایانه باشد».
تصویر صفحهٔ نتایج موتور جستجو

یک نمونه از صفحه نتایج موتور جستجو

نسخه ‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده بوسیله مدیران وب سایت‌ها مثل meta tag واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ALIWEB اعتماد اتکا می‌کردند. متاتگ‌ها راهنمای ی برای محتوای هر صفحه فراهم می‌کنند. با این‌حال، مصرف از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا گزینش واژگان در متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند سبب رتبه بندی شدن صفحه برای جستجوهای غیر ارتباط گردد. تولیدکنندگان محتوای شبکه همین طور تعدادی از ویژگی‌های منبع HTML یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو اصلاح بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و بوسیله مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی زیاد پر شده‌اند. از آنجایی که موفق یت و محبوبیت موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته معین می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با گسترش الگوریتمی رتبه بندی پیچیده‌تر به این عمل جواب دادند؛ که در آن عوامل مورد توجه قرار می‌گیرند دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند. Larry page Sergey Brin دو دانشجوی فارق التحصیل دانشگاه استنفورد موتور جستجو موسوم به Backrub را گسترش دادند که جهت بررسی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که بوسیله الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از میزان قدرت لینک‌های ورودی. رتبه صفحه میزان صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع ، این بدان معناست که برخی لینک‌ها ازبقیه لینک‌ها قوی تر بوده، رتبه صفحه بالاتر اقطعا ل دیده شدن صفحه بوسیله وب گردهای تصادفی را افزایش می‌دهد.

Page Brin، Google را در سال ۱۹۹۸ بنیان‌گذاری کردند. Google دربین کاربران فزاینده اینترنت، هواداران ثابت قدمی را به جذب کرد که طراحی آسان آن را رفیق داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه نقد لینک) شبیه عوامل داخل صفحه ( زیادی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگــل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه تذکر می‌کنند، اجتناب نماید. علیرناراحتی اینکه به گیم گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام وسائل ها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی Inktomi گسترش دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در اندازه زیاد و وسیع متمرکز می باشند . گاهی از این طرح‌ها یا مزارع لینک، سبب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.
تا سال ۲۰۰۴، موتورهای جستجو، طیف وسیع ‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه بندی جای داده بودند تا اثر دستکاری لینک‌ها را كم شدن دهند. در ژوئن ۲۰۰۷، یک گزارشگر از نیویورک تایمز بنام Saul Hansell گفت که گوگــل ، رتبه بندی سایت‌ها را با استفاده از بیش ۲۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی Google , Bing , Yahoo الگوریتم‌های رتبه بندی‌های خود را افشا نمی‌کنند. بعضی از شاغلان در SEO روش‌های مختلف ی را جهت بهینه‌سازی موتور جستجو مورد تحقیق قرار داده و نظرات شخصی را منتشر کرده ‌اند. ثبت اختراع‌های مربوط به موتورهای جستجو می‌تواند اطلاعاتی را برای درک خوبتر موتورهای جستجو فراهم نماید.
در سال ۲۰۰۵، شروع به شخصی‌سازی نتایج جستجو برای هر کاربر نمود. بر طبق تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شده‌اند. در سال ۲۰۰۸، Bruce Clay گفت که «رتبه بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار کرد که بحث در مورد شیوه رتبه بندی وب وب سایت بی‌مفهوم است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند مفرق باشد.
در سال ۲۰۰۷، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش کرد که اقداماتی در پیش گرفته تا با مصرف از ویژگی‌های nofollow در لینک‌ها، تاثیر مـدل سازی رتبه صفحه را کاهش دهد. Matt Cutts یک مهندس نرم‌افزار شناخته شده در گوگل ، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات SEO را از استفاده از آن در تعیین مدل سازی رتبه صفحه منع نماید. در نتیجه این تغییر مصرف از nofollow منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان SEO تکنیک‌های جایگزینی را گسترش دادند که تگ‌های nofollow شده را با Javascript مبهم جایگزین کرده و در نتیجه، مـدل سازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل توصیه شده است که حاوی مصرف از iframes , Flash , Javascript می‌شود.
در دسامبر ۲۰۰۹، گوگل اعلام کرد که از سوابق جستجوی تمام کاربرانش جهت جمع‌آوری نتایج جستجو استفاده خواهد کرد.

در ۸ ژوئن ۲۰۱۰ از یک سیستم ایندکس گذاری نو موسوم به گوگــل کافئین رونمایی شد. گـوگل کافئین تغییری بود درروش به روز شدن ایندکس گـوگل به منظور نمایش سریعتر نتایج گوگل نسبت به قدیم . این سیسـتم طراحی شد تا به کاربرها اجازه پیدا کردن سریعتر از قبل نتایج نو ، پستهای فورم‌ها وبقیه مطالب را بلافاصله بعد از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری که به گوگل ، سیسـتم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را ۵۰ درصد نسبت به ایندکس قبلی اصلاح می‌دهد.
Google Instant، یا جستجوی وقت واقعی، در اواخر سال ۲۰۱۰ در تلاش ی به منظور بوقت تر مرتبط نمودن جستجوها ارائه شد. بطور تاریخی، آدم ین‌های وب سایت‌ها، ماه‌ها یا حتی سالها روی بهینه‌سازی یک وب سایت ارتقای رتبهٔ جستجوی آن وقت گذاشته‌اند. با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه سریع در بین نتایج جستجو رتبه بندی شوند.
در فوریه ۲۰۱۱، از آپدیت پاندا داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌کند. بطور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگــل یک سیـستم پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به شخص نیستند، جریمه می‌کند.
در آوریل ۲۰۱۲، گوگــل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت اصلاح رتبه خود در موتورهای جستجو مصرف می‌کردند.
در سپتامبر ۲۰۱۳، شرکت گـوگل از آپدیت Google Hummingbird رونمایی کرد؛ الگوریتم که جهت اصلاح پردازش زبان طبیعی گوگل درک معنایی صفحات وب طراحی شد.
رابطه با موتورهای جستجو

تا سال ۱۹۹۷، طراحان موتورهای جستجو درپیدا کردن د که مدیران وب سایتها تلاش می‌کنند که در موتورهای جستجوی آنها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبه‌های در نتایج جستجو را از طریق سرشار نمودن صفحات با واژگان کلیدی بسیار خیلی یا نامرتبط، دستکاری می‌کردند. موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتم‌های خود را جهت پیشگیری مدیران وب در دستکاری رتبه‌ها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک کنفرانس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینه‌سازی آن را به نیز مرتبط سازد.
وب سایت‌های مشتری کمپانی‌هایی که از تکنیک‌های بیش از میزان تهاجمی استفاده می‌کنند، می‌توانند در نتایج جستجو مسدود گردد. در سال ۲۰۰۵، Wall Street Journal گزارش داد که شرکت Traffic Power، به گفته برخی افراد، از تکنیک‌های دارای ریسک بالا استفاده کرده آنرا به مشتری‌های خود اطلاع نداده است. مجله Wired گزارش داد که همان شرکت از Aaron Wall، وبلاگ نویس و SEO، بخاطر نوشتن در مورد بستن و تحریم شکایت کرده است. Matt Cutts از شرکت گوگــل بعدها تأیید کرد که گوگل عمداً مجموعه Traffic Power برخی از مشتریان آنرا توقیف کرده است.
بعضی از موتورهای جستجو به صنعت SEO دست زده و تبدیل به حابین مالی پر رفت و آمد مهمان در کنفرانس‌ها، چت‌ها سمینارهای SEO شده‌اند. موتورهای جستجوی اصلی، اطلاعات و دستورالعمل‌های چگونگی بهینه‌سازی وب وبسایت را فراهم می‌سازند. شرکت گوگل برای کمک به مدیران شبکه، یک برنامه نقشه وب سایت دارد که در صورت وجود هر مشکلی در ایندکس نمودن وب سایت‌های مدیران شبکه، به آنها اطلاع داده و نیز داده‌های ترافیک گـوگل مربوط به وب سایت آنها را در اختیارشان قرار می‌دهد. Bing Webmaster Tools به مدیران شبکه امکان ارسال یک نقشه سایت و فیدهای شبکه را داده و کاربرها را نیز قادر به تشخیص میزان خزش ردیابی وضعیت ایندکس صفحات وب می‌سازد.
روش‌ها
فهرست‌شدن

موتورهای جستجو از الگوریتم‌های ریاضیاتی پیچیده ایی مصرف می‌کنند تا وب سایت‌های مورد جستجوی کاربر را حدس بزنند. در این نمودار، چنانچه هر حباب نشانگر یک وب سایت باشد، برنامه‌هایی که برخی وقتها عنکبوت نامیده می‌شوند، تحلیل می‌کنند که کدام سایت‌ها به کدام سایت‌های دیگر لینک شده‌اند که آنرا با فلش‌هایی که بیانگر این امر است، نمایش می‌دهد. وب سایت‌هایی که لینکهای ورودی بیشتر یا لینک‌های قوی تری می‌گیرند، فرض می‌شود که مهمتر باشند و همان چیزی مفروض می‌شوند که کاربر، جستجو می‌کند. در این مثال، چون وب وبسایت B تعداد بسیاری لینک ورودی دریافت می‌کند، در رتبه بالاتری در یک جستجوی وب قرار می‌گیرد؛ لینک‌های مکمل مانند وب سایت C، علیرغـم اینکه فقط لینک ورودی دارد، لینک ورودی از یک وبسایت بسیار محبوب (B) دارد؛ در حالیکه سایت E چنین لینکی ندارد.
تذکر : درصدها گرد شده‌اند.

موتورهای جستجوی پیشرو مانند جستجوگر گوگل ، بینگ، یاهو! جستجو از خزنده‌ها جهت پیدا کردن صفحات مرتبط با نتایج جستجوی الگوریتمیک استفاده می‌کنند. صفحاتی که از صفحات ایندکس شده یک موتور جستجوی دیگر لینک می‌شوند، نیازی به ارسال ندارد زیرا بطور اتوماتیک پیدا می‌شوند.
دو دایرکتوری عمده Yahoo Directory , دی‌موز نیازمند ارسال دستی بازنگری آدم ی هستند . کمپانی گوگــل Google Webmaster Tools را توصیه می‌دهد که فید نقشه سایت اکس‌ام‌ال می‌تواند برای آن ایجاد و بطور رایگان ارسال شود تا این اطمینان حاصل شود که همه صفحاتبه ویژه ً آنهایی که با دنبال کردن اتوماتیک لینک‌ها قابل شناسایی نیستند، قابل دستیابی می باشند . در قدیم یاهو! یک سرویس ارسال پرداختی داشت که خزش را به ازای میزان ی هزینه در هر کلیک تضمین می‌کرد که در سال ۲۰۰۹، این سرویس متوقف شد
خزنده‌های موتور جستجو می‌توانند وقت خزش وب سایت، به تعداد عوامل مختلف ی توجه کنند. هر صفحه‌ای بوسیله موتور جستجو ایندکس نمی‌شود. فاصله صفحات از دایرکتوری مهم ممکن است یک علت در خزش یا عدم خزش در صفحات باشد.
پیشگیری از خزش

به منظور پیشگیری از محتوای نامطلوب در ایندکس‌های جستجو، مدیران شبکه می‌توانند به عنکبوت‌ها دستور بدهند که فایل‌ها یا دایرکتوری‌های خاصی را داخل فایـل استاندارد robots.txt در دایرکتوری اصلی دامنه، مورد ارزیابی و خزش قرار ندهند. بعلاوه، صفحه می‌تواند صراحتاً از پایگاه‌داده‌ها مورد جستجو خارج شود که این عمل از طریق مصرف از متاتگ‌های ویژه به ربات‌ها صورت می‌گیرد. وقت ی که موتور جستجو از وب سایت بازدید می‌کند فایـل robots.txt واقع در دایرکتوری اصلی، نخستین جایی است که مورد خزش قرار می‌گیرد. پس فایل robots.txt تجزیه شده به ربات دستور داده می‌شود که کدام صفحات نباید مورد ارزیابی خزش قرار می‌گیرد. از آنجایی که خزنده موتور جستجو ممکن است که یک ورژن از این فایـل را نگه دارد بعضی وقتها ممکن است که صفحاتی مورد خزش قرار می‌گیرند که مدیر شبکه تمایلی به آنها ندارد. بطور معمول، صفحاتی که از خزش خارج می‌شوند عبارتند از صفحات ورودی ویِژگزینشه مانند صفحات مربوط به کارتهای خرید صفحات مربوط به محتوای شخصی کاربر شبیه نتایج جستجوی حاصل از جستجوهای داخلی. در مارس ۲۰۰۷، گوگــل به مدیران شبکه هشدار داد که باید از ایندکس شدن نتایج جستجوی داخلی پیشگیری کنند زیرا این صفحات، هرزنامه جستجو هستند .
افزایش برتری

روش‌های گوناگونی می‌توانند برتری یک صفحه وب را در بین ننتایج جستجو افزایش دهند. لینک کردن متقابل صفحات وب وبسایت جهت فراهم نمودن لینک‌های بیشتر به صفحات مهمتر، می‌تواند شانس در دید بودن آن را ارتقا دهد. نوشتن محتوایی که حاوی کلمات کلیدی باشد، به نحوی که متن حاصل، به طیف وسیع ‌ای از ورودی‌های جستجو ارتباط باشد، می‌تواند سبب افزایش ترافیک شود. به روز رسانی محتوا بمنظور خزش مکرر بوسیله موتورهای جستجو می‌تواند یک وزن اضافی به سایت بدهد. اضافه نمودن کلمات کلیدی مرتبط با فرا داده‌هایی که یک صفحه وب حاوی تگ عنوان فرا توضیح، می‌تواند منجر به اصلاح رابطه لیست‌های جستجوی وب سایت و در نتیجه افزایش ترافیک شود. نرمالیزه کردن نشانی اینترنتی صفحات وب در دسترس نشانی‌های اینترنتی متعدد، با استفاده از عنصر لینک متعارف یا از طریق ریدایرکت‌های ۳۰۱، می‌تواند این اطمینان را فراهم آورد که لینک به ورژن ‌های مختلف URL جهت محاسبه نمره محبوبیت لینک صفحه، مورد توجه و استفاده قرار می‌گیرد.
seo در ایران

شبیه بقیه کشورهای جهان ، سئو و یا بهینه‌سازی سایت برای موتورهای جستجو در ایران با رعایت تکنیک‌های مختلف ی انجام می‌گیرد، علی رناراحتی نوپا بودن این رشتهٔ کاری، بسیاری از مجموعه ‌ها در ایران برای بیان کردن سایت‌ها در موتورهای جست و جو از عبارت گوگل (به عنوان متداول‌ترین موتور جستجو)، سعی در مصرف از تکنیک‌های بیان و به روز را دارند. در مورد بهینه‌سازی برایبقیه موتورهای جستجو از عبارت موتورهای جستجوی ملی، تلاش ‌های چندانی از طرف کمپانی ‌های مختلف مشاهده نمی‌گردد.
تکنیک‌های کلاه سفید در مقابل تکنیک‌های کلاه سیاه

تکنیک‌های SEO می‌توانند به دو گروه عمده طبقه‌بندی شوند: تکنیک‌هایی که موتورهای جستجو به عنوان بخشی از طراحی خوب پیشنهاد می‌کنند، تکنیک‌هایی که مورد تأیید موتورهای جستجو نیست. موتورهای جستجو تلاش می‌کنند که تاثیر دسته دوم را کاهش دهند هرز آگهی ‌ها از آن عبارت هستند . مفسران صنعتی و شاغلانی که از این تکنیک‌های SEO مصرف می‌کنند، آنها را به SEO کلاه سفید یا کلاه سیاه طبقه‌بندی کرده ‌اند. تکنیک‌های کلاه سفید تمایل به تولید نتایجی دارند که مدت وقت بسیاری برقرار هستند ، در حالیکه تکنیک‌های کلاه سیاه پیش بینی می‌کنند که وب سایت‌های آنها در نهایت ممکن است بطور مزمان یا دائم توقف گردد؛ ی که موتورهای جستجو سر از کارشان درآورند. یک تکنیک SEO کلاه سفید تلقی می‌شود، چنانچه از دستور العمل‌های موجود جستجو پیروی کرده فریبی در کارش نباشد. از آنجاییکه دستورالعمل‌های موتور جستجو به عنوان مجموعه‌ای از قوانین نوشته نشده است، این یک تمایز مهم قابل تذکر است.
تکنیک SEO کلاه سفید تنها در مورد ٔ تبعیت از دستورالعمل‌ها نیست، ولی در مورد حصول اطمینان از این امر است که محتوایی که یک موتور جستجو ایندکس کرده و پس رتبه بندی می‌کند، مشابه همان محتوایی باشد که یک کاربر خواهد دید. مشاوره کلاه سفید در مجموع جهت ایجاد محتوا برای کاربران مورد استفاده قرار می‌گیرد، نه برای موتورهای جستجو. سپس، آن محتوا به جای تلاش جهت تحریک نمودن الگوریتم و فریب دادن آن از اهداف مورد نظر خود، به آسانی در دسترس عنکبوت‌ها قرار می‌گیرد. تکنیک‌های کلاه سفید در بسیاری جهات شبیه گسترش وب می باشند که در دسترس بودن را ارتقاء می‌دهد؛ هرچند که این دو یکسان نیستند.
تکنیک‌های SEO کلاه سیاه تلاش می‌کنند تا رتبه بندی را از طریق فریب از روش‌ها راه‌هایی که مورد تأیید موتور جستجو نیست، اصلاح دهند. یک تکنیک کلاه سیاه از متن پنهان شده به عنوان متن رنگ آمیز شده مشابه با پس زمینه div نامرئی، یا بعنوان متنی در خارج از صفحه نمایش استفاده می‌کنند. تکنیک دیگر، تکنیکی موسوم به cloaking است که بسته به اینکه صفحه توسط بازدید کننده آدم ی فراخوانی شود یا توسط یک موتور جستجو، صفحه مفرق ی را بدست می‌دهد.
دسته دیگری که برخی وقتها مورد استفاده قرار می‌گیرد، SEO کلاه خاکستری است. این تکنیک بین کلاه سفید سیاه است که از روش‌هایی مصرف می‌کند که از مجازات سایت پیشگیری می‌کند، ولی با این وجود، بهترین محتوا را برای کاربر مهیا نکرده و ترجیحاً روی اصلاح رتبه بندی‌های موتور جستجو تمرکز می‌کند.
موتورهای جستجو ممکن است سایت‌هایی را که از روش‌های کلاه سیاه مصرف می‌کنند را جریمه کنند، که این امر از طریق كم شدن دادن رتبه آنها، یا حذف کردن لیست‌های آنها از databaseهای خود یا تمام مسائل می‌تواند صورت گیرد. چنین مجازات‌هایی می‌توانند بطور اتوماتیک توسط الگوریتم‌های موتور جستجو یا از طریق بازنگری دستی وبسایت صورت پذیرد. یک نمونه، حذف Ricoh Germany , BMW Germany از گوگل در فوریه ۲۰۰۶ به دلیل مصرف از شیوه‌های فریبنده بود. با این حال، هر دو شرکت سریع عذرخواهی کرده با اصلاح نمودن صفحات متخلف، به لیست گوگل بازگشتند.
به عنوان یک استراتژی بازاریابی

SEO یک روش و استراتژی بازاریابی مناسب برای تمام وب سایت‌ها نیست و بر طبق هدف گردانندگان وب سایت، استراتژی‌های بازاریابی اینترنتی دیگر مانند تبلیغات از طریق پرداخت کلیکی (PPC) می‌تواند موثر تر باشد. همین طور ، یک کمپین تبلیغات اینترنتی موفق می‌تواند به ساختن صفحات وب دارای کیفیت بالا بستگی داشته باشد که بکارگیری نرم‌افزارهای نقد را ترغیب می‌نماید تا صاحبان سایت‌ها قادر به بررسی نتایج، اصلاح نرخ تبدیل سایت شوند.
SEO ممکن است بازگشت سرمایه مناسب و کافی بدست دهد. با این حال، موتورهای جستجو بخاطر ترافیک جستجوی اصلی وجهی دریافت نمی‌کنند، الگوریتم‌های آنها تغییر می‌کند و تضمینی برای ارجاعات پیوسته آنها وجود ندارد. با توجه به این عدم تضمین و اطمینان، کسب کاری که شدیداً وابسته به ترافیک موتور جستجو است، می‌تواند دچار ضرر ‌های عمده ایی شود؛ اگر موتور جستجو از فرستادن بازدیدکننده دست بکشند. موتورهای جستجو می‌توانند الگوریتم‌های خود را تغییر داده، اهمیت وبسایت را تحت تأثیر قرار دهند و اقطعا لاً در از دست دادن جدی ترافیک یک سایت، نقش ایفا کنند. بر طبق اعلام Eric Schmidt مدیر علت گوگل ، این شرکت در سال ۲۰۱۰ بیش از ۵۰۰ تغییر در الگوریتم خود ایجاد کرده است؛ یعنی حدود ۵/۱ تغییر در هر روز. این یک اقدام کاری عاقلانه برای اپراتورهای وب سایت‌ها است که را از وابستگی به ترافیک موتور جستجو رها نمایند.
بازارهای بین‌المللی

تکنیک‌های بهینه‌سازی شدیداً متناسب با موتورهای جستجو غالب در بازار هدف تنظیم می‌شوند. سهام بازار موتورهای جستجو از بازاری به بازاری دیگر مانند وجود یک رقابت، تغییر می‌کنند. در سال ۲۰۰۳، Danny Sullivan اظهار کرد که گـوگل حدود ۷۵ درصد کل جستجوها را انجام داده است. در بازارهای خارج از آمریکا، سهم گوگــل اکثرا ٌ بیشتر است از سال ۲۰۰۷، گـوگل در اهمیت موتور جستجوی غالب در همه جهان باقی‌مانده است. از سال ۲۰۰۶، گوگــل ۸۵ تا ۹۰ درصد سهم بازار آلمان را در اختیار دارد. در حالیکه صدها شرکـت SEO در آن زمان در آمریکا وجود داشت، تنها حدود ۵ مورد از آن در آلمان کار می‌کرد. از ژوئن ۲۰۰۸، بر طبق اعلام Hitwise، سهم گوگــل از بازار بریتانیا نزدیک به ۹۰ درصد بوده است. آن عدد از طریق چند کشور حاصل می‌شود.
از سال ۲۰۰۹، تنها چند بازار بزرگ وجود دارد که گوگل در آنها، موتور جستجوی پیشرو نیست. در مسائل ، وقت ی که گوگــل در بازار خاص، پیشرو نیست، پشت سر رقیب مکانی قرار دارد. قابل توجه ‌ترین نمونه‌های این مسائل ، کشورهای چین، ژاپن، کره جنوبی، روسیه و جمهوری چک هستند که به ترتیب، Baidu , Yahoo! , Japan , Naver , Yandex Seznam پیش روی بازارها هستند .
بهینه‌سازی جستجوی موفق برای بازارهای بین‌المللی، ممکن است نیازمند ترجمه حرفه‌ای صفحات وب، ثبت دامنه با یک دامنه سطح بالا در بازار هدف میزبانی است که آدرس IP مکانی را فراهم نماید. در غیر این صورت، بدون توجه به زمان، عناصر مهم بهینه‌سازی جستجو، اساساً مشابه هستند .
سوابق حقوقی

در ۱۷ اکتبر ۲۰۰۲، Seaerchking در دادگاه منطقه‌ای آمریکا در منطقه غربی Oklahoma، دادخواستی علیه موتور جستجوی گوگــل داد. او ادعا کرد که تاکتیک‌ها و روش‌های گوگــل در پیشگیری از هرزاطلاعیه ‌ها، سبب ایجاد یک تداخل زیان آور با روابط قراردادی شده است. در ۲۷ می ۲۰۰۳، دادگاه شکایت علیه گـوگل را رد کرد زیرا Seaerchking نتوانست ادعایش را که می‌توانست منجر به دریافت خسارت شود، اثبات نماید .
در مارس ۲۰۰۶، KinderStart به رتبه بندی‌های موتور جستجوی گوگل ، در دادگاه طرح دعوی کرد. پیش از این اقامه دعوی، وب سایت KinderStart از ایندکس گوگل خارج شد ترافیک سایت تا ۷۰ درصد كم شدن یافت. در ۱۶ مارس ۲۰۰۷، دادگاه منطقه‌ای آمریکا در منطقه شمالی کالیفرنیا (بخش San Jose) شکایت KinderStart را رد کرده و این شرکت را مکلف به پرداخت بخشی از نرخ ‌های حقوقی گوگل کرد.



نوع مطلب :
برچسب ها :
لینک های مرتبط :
          
شنبه 19 دی 1394
 
لبخندناراحتچشمک
نیشخندبغلسوال
قلبخجالتزبان
ماچتعجبعصبانی
عینکشیطانگریه
خندهقهقههخداحافظ
سبزقهرهورا
دستگلتفکر





صفحات جانبی
آمار وبلاگ
  • کل بازدید :
  • بازدید امروز :
  • بازدید دیروز :
  • بازدید این ماه :
  • بازدید ماه قبل :
  • تعداد نویسندگان :
  • تعداد کل پست ها :
  • آخرین بازدید :
  • آخرین بروز رسانی :
امکانات جانبی