سفارش تبلیغ
صبا ویژن

سئو- استفاده از همه شگردها برای بالابردن ترافیک سایت

www باشد یا نباشد

سوال:

سلام، خسته نباشید
خیلی  ببخشید که سوالات رو توی انجمن مطرح نمیکنم
سوالی که داشتم در رابطه با این خطای دابلیکیت هست که خیلی گیج کننده است با این که اکثر مطالبی که با
این موضوع تو وبلاگتون و انجمن خوندم ولی هنوز متوجه نشدم
که چطوری این خطا پیش میاد و چطوری باید رفعش کرد
یکی در مورد این که آدرس سایت بدون
www 
باشه یا با
www
ظاهرا از نظر شما آدرس بدون
www 
باشه بهتره چون آدرس گوگل 724 و
گوگل آنالیزر هر دو بدون
این هندلر هست و با  روی سایتای بزرگ و رنک بالا
که میدیم توی گوگل تعداد صفحات  بدون
www
بیشتر تو گوگل ایندکس  شده و ظاهرا گوگل آدرس بدون
  www
بیشتر
دوست داره
شما توی وبلاگتون به سایت میهن آگهی اشاره کرده بودین  
که هیچ صفحه ای با آدرس با
www
 توی
گوگل نداشت
ولی سایت بزگی مثل
seomoz
 با هردو آدرس به یک تعداد(179,000 صفحه ایندکس شده تو گوگل
داره با اینکه آدرس رو روی
www
قفل کرده
آیا این یه خطای سئو محسوب نمیشه؟
من خودم یه  سایت روی وردپرس دارم که آدرس رو روی
www
قفل کردم و با هردو آدرس به یه تعداد صفحه ایندکس دارم
میخواستم بدونم روی آدرس بدون
www
 باشه بهتره یا بدون این هندلر
نظر خودم بدون صw بهتره

سوال دومم
در مورد سایتهای موزیک هست
که آدرسها زود فیلتر میشن
یه دومین جدید واسش میگیرن
مثلا سایت  گنجا2موزیک
تا حالا شاید بیشتر از 20 تا آدرس داشته
برای هر دومینی یه تعداد خاص تو گوگل ایندکس
شده  این آدرس جدیدش که چند روزیه ثبت شده رسیده
به
....... 
که 25.000 تایی ایندکس شده
آیا به نظر شما
بهتر نیست که فقط یه آدرس اصلی رو به گوگل معرفی کنی
و دومینهای جدید که پارک میشه رو دیگه به گوگل معرفی نکنیم
راه حلتون برای این مشکل چیه تا خطای دابلیکیت صفحات پیش نیاد....
شرمنده مهندس داستان بافتم
خیلی خیلی ممنون
اگه میشه لطف کنید
با زم ازتون خیلی ممنون واسه این همه مطلب مفیدی که توی وبلاگهاتون  انجمن خوبتون و سایت آنالیزور

پاسخ:
هیچ تفاوتی از نظر ارزش گذاری گوگل برای آدرس با www یا بدون آن وجود ندارد
دلیل انتخاب بدون www آن برای ما تنها کوچک بودن آدرس در نبود  آن است
www در ابتدا برای آپشنی بود که برای سایتهای مدیا در نظر گرفته شده بود و با این هدف ارایه شد که بعدا کل قضیه منتفی شد
به عبارتی الان دیگر اصلا www کاربردی ندارد
اما از آنجایی که موتورهای جستجو(علی الخصوص گوگل) ساب دومین را یک سایت محسوب می کنند و هندلر www هم یک ساب دومین محسوب میشود و یک سایت مجزا به حساب می آید
و اینکه چند سایت کپی هم باشند ارزش سئو را به شدت پایین می اورند (به دلیلی mirroring و duplicate page) 
درباره سایت www.dmoz.org هم همینکار انجام شده یعنی روی www قفل شده است
در مورد دامنه های جدید  هم به دلیل طولانی بودن مبحث الان نظری ندارم
ضمنا دامنه ای که ف ی ل ت ر می شود را برای همیشه فراموش کنید ومطلقا به دامنه جدید ریدایرکت نکنید


در پی تقلب برای افزایش آمار آلکسا خود نباشید

متاسفانه افرادی در کشورمان پیدا شده اند که با علم محدودی که از کد نویسی پیدا کرده اند سعی کرده اند با کد خوانی کدهای جاوا در اکستنشنهای آلکسا   راه تقلب را پیشه کنند
اما یک نکته را فراموش کرده اند
آیا واقعا سایت آلکسا با آن اعتبار و قدمت و برخورداری از نیروهای فنی فکر مقابله با چنین افرادی را نکرده است
در پاسخ باید بگویم بله
در اکستنش های آلکسا فایلهای کد شده ای (باینری) با پسوند xpt  وجود دارد که به طرز ماهرانه ای آبجکتهای اینترفیس جاوا در آنها قرار داده شده  است(در تئوری چنین کاری شدنی نیست و تنها می توان واریاب ها را در این نوع فایل قرار داد اما آلکسا در عمل آن را تحقق داده است) که یکی از این آّبجکتها کارش گزارش ایرادات امنیتی META-INF ها به سایت آمازون است
سایت آمازون امکانی برای بررسی موارد امنیتی  سایتها قرار داده که با سرچ Amazon Security Fails در گوگل اطلاعاتی می توانید از آن بیابید
دو حالت وجود دارد
 اگر دسنرسی به ساب دومین آمازون که برای اینکار تعریف شده (یعنی https://s3.amazonaws.com) را
1- محدود کنید یا ببندید اکستنشن شما ولید نمی شود و عملا آمارش بی ارزش می باشد (تقریبا در هر 10 ریکوست یک ریکوست به این سایت براری بررسی ولیدیت بصورت آپتایم می رود)
2- باز بگذارید که مچتان باز می شود و آمار شما باز بی ارزش می شود
در هرصورت با این تخلف شما وارد بلک لیست آلکسا می شوید و به مرور از آمار آن خارج می شوید


بعد از Flame و استاکس نت چشم ایرانیان به این ویروس روشن شد

قصد دارم از ویروسی که فایلهای کاربران ایرانی را حذف می کند حرف بزنم

تیم واکنش اضطراری ایرانیان در خبری اعلام کرده است که یک ویروس جدید در کامپیوترهای شخصی ایران کشف کرده اند که داده های ذخیره شده بر روی حافظه جانبی سیستم ها را پاک می کند. این ویروس که لقب Batchwiper به آن داده اند، محتویات درایوهای D تا I کامپیوتر را از حافظه پاک می کند. علاوه بر این درایوها، محتویات دسکتاپ کاربری که عمل Log in انجام داده است نیز حذف می شود.

لقب BatchWiper از این جهت به این برنامه مخرب داده شده است که این برنامه مخرب درون یک فایل Batch بسته بندی شده است.

عمل حذف فایلها توسط این ویروس در تاریخ های معینی صورت می گیرد. تاریخ بعدی در 21 ژانویه سال 2013 خواهد بود. عملیات حذف فایلها پیش از این در تاریخ های 12 اکتبر، 12 نوامبر و 12 دسامبر 2012 نیز انجام شده بود. حدس زده می شود که برای حداقل دو ماه این ویروس خود را در بین سیستم های مختلف توزیع کرده است.

GrooveMonitor.exe فایل اصلی است که بعد از اجرا شدن، باقی فایلهای مخرب را از به سیستم قربانی تزریق می کند. اسامی زیر فایلهایی هستند که این فایل از درون خود استخراج می کند:

-- \WINDOWS\system32\SLEEP.EXE, md5: ea7ed6b50a9f7b31caeea372a327bd37

-- \WINDOWS\system32\jucheck.exe, md5: c4cd216112cbc5b8c046934843c579f6

-- \WINDOWS\system32\juboot.exe, md5: fa0b300e671f73b3b0f7f415ccbe9d41

فایل سوم پس از اجرا فایلی با مشخصات زیر را ایجاد می کند و سپس آن را اجرا می کند.

\Documents and Settings\%User%\Local Settings\Temp\1.tmp\juboot.bat
در هر صورت به نظر می رسد که این برنامه مخرب به طور وسیعی پخش نشده است. آنالیزها نشان می دهد که طرز کار این برنامه بسیار ساده است و بر خلاف ویروس هایی که چندی پیش خبر ساز شده بودند، طراحی ساده ای دارد.

مرجع خبر:
http://arshnews.ir/vdcawanu.49ny015kk4.html

من (نگارنده seo.parsiblog.com )خودم از این ویروس زخم خوردم
راستش مبهوت شدم که چطور فایلهای فلشم بدون دخالت من حذف شده اند (یعنی بدون گرفتن مجوز از من این حذف انجام شد)
اگر دوستان برایشون جالب است که بدانند چطور این ویروس کار می کند ادامه را بخوانند(آنچه در پی میاید تنها استنباط شخصی است اما من مطمئن از آن هستم)
این ویروس توسط سایتهای بزرگ آمریکایی مثل گوگل به ایرانیان داه می شود البته طی یک روند پیچیده که در زیر نمونه ای از آن را برایتان می آورم
شما وقتی به صفحه ای می روید که به روی ایرانی ها بسته شده است مثل code.google.com و متوجه می شوید که اطلاعات به شما نمایش داده نمی شود اولین کاری که می کنید از نرم افزار های تغییر آی پی استفاه می کنید تا بتوانید محتویات صفحه را با تغییر آی پی به کشور غیر ایران ببینید
اینجاست که سایت مثلا گوگل متوجه می شود که شما قصد دارید به او کلک بزنید
(اگر گوگل متوجه این دورزدن شما شده باشد ( با چک کردن کوکی این کار را می تواند بکند که با روش گفته شده در پی این امکان را می توانید از او سلب کنید )باز هم صفحه محدودیت دسترسی را به شما نمایش می دهد)  در اینصورت ویروس را به سیستم شما تزریق می کند
من خودم از طریق گوگل به این مشکل خوردم چون این روند دور زدن را فقط برای گوگل انجام دادم
اما چطور از این کار جلوگیری کنیم
من چون با فایرفاکس کار می کنم روش کار را در فایرفاکس می گویم ولی همه مرورگرها چنین امکانی را به شما می دهند
وقتهایی که با ای پی های محض ایران کار می کنید و یا قصد دارید به روش گفته شده در بالا سایت های آمریکایی را دور بزنید حتما اعمال زیر را انجام دهید تا این ویروس که توسط ویروس یاب node32 آپدیت شده هم شناسایی نشد (چرا که از پچ های مخصوص ویندوز طراحی شده  برای سازمان سیا از طرف مایکروسافت استفاده می کند)را دریافت نکنید
کافیست به  tools
از آنجا به زبانه privacy
رفته و گزینه

Do not tell sites anything about my tracking prefences

را تیک بزنید و history را هم روی

firefox will: never remember history

قرار بدهید
 به امید روزهایی بهتر و ایرانی آباد


سیستم شناسایی ربات: آنتی ربات آفتاب پرست یا Chameleons

سیستم شناسایی ربات : آفتاب پرست یا Chameleons

به دلیل متدهای بکار رفته در این سیستم برای شناسایی ربات که در  نتیجه گیری از رفتار آفتاب پرست تقلید شده است آنرا آنتی ربات آفتاب پرست یا Chameleons می نامیم
  این سیستم  بدون تکیه بر استفاده از کوکی و سیشن و آی پی و user_agent و ... طراحی شده است
در پویش صفحات وب ربات های پیچیده می توانند تمام حرکات یک انسان را تقلید کنند
ربات های مخرب از دید ما دو گونه اند
 1-ربات هایی که هدفشان لاگین به بخش حفاظت شده است
که با کپچا می توان راه را بر این دسته از ربات ها بست
2- ربات هایی که به آنها مشخصات لاگین به سیستم داده  میشود و برای آنها فعالیت هایی تعریف میشود(این اتفاق بیشتر در بازی ها رخ می دهد که به هر کس که تمایل به انجام بازی داشته باشد یوزر و پس داده میشود )
ربات هایی که برای این نوع فعالیت ها تعریف می شوند قادرند تمامی فعالیت های انسانی را تقلید کنند و به همین دلیل گفته میشود که شناسایی این ربات ها برای همیشه در عمل ناممکن است
اما در اینجا ما در عمل راه را بر این دسته از ربات ها می بندیم البته با تعاملی که بدین منظور با کاربران انسانی برقرار می کنیم
محدود کردن فعالیت این دسته از رباتها با استفاده از کپچا  مطلقا توصیه نمی شود چرا که این کار برای کاربران دیگر اذیت و مزاحمت در پی دارد اما از طرفی این ربات ها به طور غیر اصولی  از منابع سیستم به نفع خود استفاده غیر مجاز می نمایند و عدم برخورد با آنها نیز عقلانه نیست
در رادامه ابتدا روش کار این قبیل ربات ها را بررسی می کنیم
ربات ها برای مقاصد خود لینک های صفحه را استخراج می کنند و مورد استفاده قرار می دهند
حتی اگر ما  لینک ها را دینامیک قرار دهیم طوری که با هربار رفرش صفحه تغییر کنند باز هم این ربات ها قادر به شناسایی آنها هستند
چرا که از موقعیت مکانی لینک ها نسبت به سایر عناصر صفحه به وجود آن پی می برند
اما وجه تسمیه   نام گذاری این سیستم یعنی آفتاب پرست
در خلقت آ?فتاب پرست این ویژگی قرار داده شده است که برای مخفی کردن خود در هرکجا که باشد به مشکل بر نخورد
در اینجا نیز برای مخفی کردن لینک از چشم ربات از همین خصیصه استفاده می شود
یعنی ربات حتی با دانستن موقعیت مکانی لینک نسبت به سایر عناصر صفحه قادر به شناسایی آن نیست
که تکیه بر این امر در این سیستم از ربات گرفته شده است
 ربات های فوق پیچیده علاوه بر اینسپکت کردن کد برای شناسایی لینک درست از روش های زیر نیز ممکن است استفاده کنند
1- شناسایی رنگ لینک صحیح با یک بار مشاهده صفحه و اعلام آن به ربات:
چون با هربار صفحه این رنگ شاخص برای لنک اصلی تغییر می کند این مورد منتفی است
3- ربات هایی که می توانند موقعیت عکس را در صفحه نمایش پیدا نمایند:
در این سیستم مختصات عکس با حرکت کند و ظریفی تغییر می کند و این متد کاربردی در اینجا ندارد
2- تشخیص از روی مشخصات فایلی:
مشخصات فایلی نیز هربار تغییر می کنند یعنی با صدرها بار رفرش صفحه و کنار گذاشتن تصاویر در کنار هم هیچ کدام مشخصات فایلی یکسانی ندارند
4- تشخیص عکس اصلی از روی فراوانی رنگ
 حتی با پیچیده کردن ربات طوری که قادر به تشخیص فراوانی رنگ ها باشد (شبیه قابلیتی که گوگل به آن رسیده است) و اینکه ربات بخواهد از این طریق تصویر مربوط به لینکی که فقط یکبار در تصویر تکرار شده را پیدا کند با توجه به الگویی که در سیستم آفتاب پرست پیاده شده است موفق نخواهد شد

اگر مایل هستید این آنتی ربات را از نزدیک مشاهده فرمایید به این لینک مراجعه فرمایید

http://hsts.ir/anti_robat.php


گوگل نگاه چشم چران

گوگل نگاه چشم چران (تصویر مقابل مربوط به Larry Page و Sergey Brin مالکان گوگل است)


گوگل نگاه چشم چرانجالبه امروز  به یکی از شکایتهای گوگل از کسانی که نام های مشابه با گوگل ثبت کرده اند برخورد کردم
آنقدر جالب که تعجب کردم چرا در هیچ رسانه فارسی به ان اشاره نشده است و اینجا اولین محل انعکاس آن است
گوگل از دامنه های  googlecheckout.com  و googlematching.com به دلیل استفاده از نام تجاری google  شکایت به عمل آورد
در پی این شکایت که ادله های گوگل را هم در پی داشت (که مهمترینش این بود که مالکان این دامنه قصدشان از ثبت دامنه های فوق فروش آن به گوگل به قیمت 1.25 میلیون دلار بوده است) مالکان این دامنه ها دفاع جالبی از خود به جا گذاشتند که خیلی بحث برانگیز شد

تا اون روز همه باورد داشتند که دلیل نام گذاری گوگل آن چیزی نیست که ادعا شده (گوگل نام یک عدد بسیار بزرگ 101رقمیست (1به همراه 100عدد صفر)البته این ادعای گوگل است اینجا را بخوانید

Source: Google Inc. Fact Sheet

در آنجا می خوانید که شرکت گوگل با هدف رساندن تعداد صفحات جستجو به همچین عددی نام گذاری شده .این عدد عددی بسیار بزرگ است که نه میتوان ان را نوشت و نه میتوان ان را خواند(تنها ان را میتوان به صورت توان نوشت و خواند) همچنین در آنجا گفته شده این عدد یک مشتق دیگر هم دارد که بهش گوگل پلکس میگویند.این عدد را به هیچ صورتی حتی توان نمیتوان خواند و نوشت فقط میتوان گفت 10 به توان گوگل.محاسبه شده که این عدد به اندازه تعداد قطرات باران در یک ثانیه است)
اما در  دفاعیه ای که در پی شکایت گوگل شد به معنی ogle اشاره شده و گفته شده که همانطور که GoDaddy  که اسم نرم افزاری مشهور است از کلمه های go به معنی رفتن و dady به معنای بابا گرفته شده یا بروبابا
و گفته شده که در اینجا نیز منظور ما گوگل نبوده بلکه بلکه نگاه چشم چران است
نگاهی که الان در اختیار سازمان سیا آمریکا قرار گرفته است و در تمام امورد کشورها دخالت غیر مستقیم را در پیش گرفته است که چشم چراندن در سیاستهای داخلی هرکشوری بخش کوچکی از آن است
جالب قضیه اینکه که  با وجود این دفاعیه همانطور که قضاوت های از نوع آمریکایی را همیشه شاهده بوده ایم که نتیجه اش چه میشود در این دادرسی نیز در نهایت این دامنه در اختیار گوگل قرار گرفت و اگر شما هویز این دامنه را در گوگل بررسی کنید به نام شرکت گوگل می رسید و اینکه در تملک گوگل درآمده است


 
Domain Name: GOOGLEOUTDOORS.COM
Registrar: MARKMONITOR INC.
Whois Server: whois.markmonitor.com
Referral URL: http://www.markmonitor.com
Name Server: NS1.GOOGLE.COM
Name Server: NS2.GOOGLE.COM
Name Server: NS3.GOOGLE.COM
Name Server: NS4.GOOGLE.COM
Status: clientDeleteProhibited
Status: clientTransferProhibited
Status: clientUpdateProhibited
Updated Date: 25-may-2012
Creation Date: 26-jun-2005
Expiration Date: 26-jun-2013

شرح این دادرسی را در اینجا بخوانید:http://domains.adrforum.com/domains/decisions/726096.htm
اما مفهوم ogle  چیست

Verb
Stare at in a lecherous manner: "he was ogling her breasts"; "men who had turned up to ogle".
Noun
A lecherous look.

گوگل نگاه چشم چران اگر از گوگل ترانسلیت استفاده کنید  گوگل این کلمه را چنین معنی می کند(جالبه که معنای دیگر ان که شهوتران است را در ترجمه گوگل ترانسلیت نمی بینیم)



چشم چرانی کردن
New! Click the words above to edit and view alternate translations. Dismiss
noun
 چشم چرانی
   
    ogle
     چشم چرانی کردن
    ogle
verb
  نگاه عاشقانه کردن
    ogle
   چشم چرانی کردن
    ogle 
  با چشم غمزه کردن
    ogle


نحوه محاسبه قدرت یا Powerful کلمه در گوگل

حتما می دانید که گوگل بر اساس قدرتمندی کلمه در هر صفحه سایتها  نتایج جستجو را مرتب می کند
اما این قدرتمندی چگونه محاسبه میشود
ابتدا قدمت کلمه در صفحه
سپس چگالی ان در سایت ( و نه صرفا صفحه) که اگر سایت دارای چگالی بالا شناخته شده بالاترین چگالی صفحه  ملاک بعدی خواهد بود
بعد از موارد بالا قرار داشتن در موارد زیر هم هر کدام امتیازی دارد که بر اساس آن جایگاه عبارت جستجو شده موجود در سایت شما در ترتیب نتایج جستجو تعین میشود که ذیلا اولویت بندی گوگل آورده میشود (ترتیب آورده شده توسط گوگل رعایت می شود)
قرار داشتن کوئری مورد نظر در url صفحه
قرار داشتن
کوئری مورد نظر در داخل تگ title (در صورت وجود چندین تگ تایتل آخرین ان منظور میشود)
قرار داشتن
کوئری مورد نظر در داخل تگ H1 (در صورت وجود چندین تگ H1  هیچکدام منظور نمیشود)
قرار داشتن
کوئری مورد نظر در داخل ul li به شرط لینک دار بودن
قرار داشتن
کوئری مورد نظر در داخل تگ a (در صورت تکرار تفاوتی ایجاد نمی شود)
قرار داشتن کوئری مورد نظر در داخل تگ b (در صورت تکرار تفاوتی ایجاد نمی شود اما در صورتیکه بصورت مجزا قرار گیرد ارزش strong را پیدا می کند )
قرار داشتن کوئری مورد نظر در داخل تگ strnog (در صورت تکرار اگر تگ strong داخل strong بیفتد ارزش مضاعف پیدا می کند در غیر اینصورت تنها با تکرار مانند تگ b تفاوت چندانی ایجاد نمی شود)
قرار داشتن کوئری مورد نظر در داخل تگ meta keyword 
قرار داشتن کوئری مورد نظر در داخل تگ meta  description
قرار داشتن
کوئری مورد نظر در تگ های h2 تا h6
قرار داشتن
کوئری مورد نظر در تایتل  عبارت لینک شده
قرار داشتن
کوئری مورد نظر در تایتل img یا عکس
قرار داشتن
کوئری مورد نظر در تایتل تگ های شناخته شده دیگر مانند span و div و...


آنچه مردم از یک موتور جستجوی خوب توقع دارند

در یک موتور جستجو صرفا تعداد موارد ایندکس شده برای مردم مفید نیست مهم این است که کاربران  بتوانند به  موارد ایندکس  شده دسترسی پیدا کنند منظورم این است که موتور قدرت تجزیه و تحلیل بالایی برای رساندن مردم به مقصدشان را داشته باشد
برای کاربر این مهم نیست که نتایج از بین چند میلیون یا میلیارد  داده  بدست امده است بلکه این مهم است که به خواسته کاربر نزدیک باشد
واین کار در موتور جستجوی گوگل به خوبی انجام میشود
و از برنامه های موتور جستجوی ojo نیز می باشد که در آینده درباره آن بیشتر خواهیم نوشت


قابلیتهای موتور جستجو ی اختصاصی با موتور جستجوی اوجو ojo

  1. ایندکس آنی صفحات تعین شده با پشتیبانی کامل از زبان فارسی.
  2. ایندکس محتویات فارسی بصورت جامع ، بطوریکه صفحاتی که با کاف و یای عربی تولید شده اند نیز به صورت فارسی  شده در خروجی جستجو ظاهرمی گردند.
  3. سیستم ذخیره سازی اصل محتوی بصورت کشینگ یا Caching برای نگهداری اسناد و صفحات ذخیره شده
  4. امکان   زمانبندی ایندکس مجدد پورتال و وب سایتهای تابعه.(ی ااستفاده از قابلیت خودکار سازی)
  5. پشتیبانی از کلمات متداول یا stop words برای مشخص کردن کلمات و یا عباراتی که لازم نیست در نتیجه جستجو ظاهر شوند، مانند حروف اضافه "و"، "از"، "به" ، ...
  6. شناسایی خودکار فینگلیش و همچنین تایپ فارسی در کی بورد لاتین (مثلا متنی که اشتباه بدون تغییر زبان صفحه کلید بصورت: hdk ljk nv wtpi ;gdn hk"gdsd jhd\ ani hsj
    تایپ شده است بصورت خودکار  به فارسی برگردانده میشود (این قابلیت برای اولین بار در این موتور جستجو ارایه شده است و حتی گوگل نیز چنین قابلیتی را ندارد)
    )
  7. تمام دستور عملاهای انتخابی برای جستجوی گوگل
  8. مشخص کردن کلمات یافت شده در نتیجه جستجو
  9. پیاده سازی الگوریتم پاندا گوگل و علاقمندی کاربران در رویت نتایج جستجوبرای اولویت بندی خروجی نتایج جستجو 
  10. نمایش بخش منتخب و مرتبط از صفحه و یا سند یافت شده در نتیجه جستجو.
  11. نمایش تعداد کل نتایج یافت شده.
  12. محاسبه و نمایش زمانی که صرف جستجو شده است ( که همواره در کسری از ثانیه خواهد بود)

 


موتور جستجوی اختصاصی ojo

بعد از چند سالی که بر روی الگوریتمهای گوگل متمرکز شده ام  باید اعلام کنم که در اولین گام راه اندازی موتور جستجوی خود در آینده ای بسیار نزدیک سرویس موتورجستجوی اختصاصی خود را راه اندازی می کنم.

سرویس که کار جستجوی فارسی داخل سایتها را انجام می دهد

خیلی ساله که من روی الگوریتمهای گوگل نه برای کسب درآمداز سئو که با هدف نوشتن یک جستجوگر داخل سایتها کار می کنم (یعنی جستجو داخل سایت بدون خزش کردن وبا دسترسی داشتن به دیتابیس) این سرویس طوری طراحی میشود که از بیرون یک سایت کارش را بتواند انجام دهد وتحت نام ojo برای تمامی سایتها و وبلاگ های ایرانی با هزینه معقولی قابل دسترسی خواهد بود

موتور جستجوی ojo

 

 

 

 

 

 

 

مهمترین خصیصه این موتور جستجوی اختصاصی رقابت آن با موتور جستجوی گوگل است

یعنی من  ادعا دارم  نه هم سرعت با گوگل که سریعتر از آن نتایج صفحات شما را به کاربران نمایش می دهد
اطلاعات تکمیلی این موتور جستجو در روزهای آینده به اطلاعتان خواهد رسید
نحوه نمایش این موتور جستجوی اختصاصی مشابه موتور جستجوی اختصاصی گوگل که نمونه آن در همین وبلاگ هم نصب شده است  می باشدیعنی موتور جستجوی در قلب سایت شما خواهد بود