تحقیق درباره موتور جستجوگر

تحقیق درمورد موتور جستجوگر
مقدمه :
با پيشرفت بشر در زمينههاي مختلف علمي و افزايش سطح آگاهي انسان دربارة پديدههاي مختلف و البته نياز رو به گسترش ما به دانش و اطلاعات در اين عصر زمينه براي بروز پديدههاي مختلفي كه بتواند خواستههاي علمي و اطلاع رساني انسان را براي برآورده سازد افزايش يافته است . با ساخت كامپيوتر در اواسط قرن گذشته مقداري از نيازهاي انسان برآورده شد با گذشت زمان اين دستگاه در قسمتهاي مختلف جامعه نفوذ كرد و تا امروز كه در جاهايي مانند مراكز نظامي، پزشكي و اداري به وفور استفاده ميشود .
در دهههاي پاياني قرن گذشته با افزايش نيازبه اطلاعات بصورت روزانه گسترش ارتباط بين سازمانها و نهادها . نياز به يك شبكه جهاني احساس شد كه هم اطلاعات به روز شده و فراواني بتواند در آن وجود داشته باشد و هم به سادگي و ارزان در اختيار مردم قرار گيرد . كه اينترنت بر اين اساس شكل گرفت . امروزه اينترنت به سرعت در حال وارد شدن به زندگي مردم است اين رسانه با مطالب فراوان و متنوعي كه دارد توانسته است قشرهاي مختلف مردم را به خود جذب كند .
امروزه عده زيادي از مردم عادي، ادارات دولتي، سازمانها ، … در روز از اينترنت استفاده ميكنند . به همين خاطر به مكانيزمي نياز شد كه كاربران بتوانند امكان جستجو داشته باشند در نتيجه موتورهاي جستجوگر در اين رسانه ايجاد شده است تا بتواند مطالب مورد نظر كاربر را به سرعت پيدا كنند .
موتورهاي جستجو از ابتداي تشكيل خود با امكان جستجوي مطلب در بعضي از سايتهاي اينترنتي قرار گرفتند. اين سايتها با گذشت زمان توانستند مكانيزم جستجوي خود را بهينه و از طرفي گستردهتر كنند . با گسترش استفاده از اينترنت احتياج به موتور جستجوي فارسي بشدت مشاهده ميشد كه اين كار توسط GOOGLE انجام شده است . و ميتوان به كمك آن اطلاعات فراواني را بصورت فارسي در زمينههاي مختلف بدست آورد . گستردگي اين مطالب بقدري زياد است كه پيشنهاد ميشود كه هر كاربر اسم خود را يك بار در موتور جستجو نوشته و نتيجه كار را مشاهده كنند .
سايتهاي موتور جستجو در حال حاضر نيز در حال بهتر كردن الگوريتم جستجوي خود و اضافه كردن كاراييهاي ديگر به سايت خود هستند كه در قسمت پاياني تحقيق آمده است . در اين تحقيق سعي شده است مطالبي راجع به موتورهاي جستجو و انواع آن و نسل
آينده آنها مطالبي آورده شده است .
موتور جستجوگر چگونه كار مي كند ؟
وقتي جستجويي در يك موتور جستجوگر انجام و نتايج جستجو ارائه ميشود، كاربر در واقع نتيجه كار بخشهاي متفاوت آن موتور جستجوگر را ميبينند .
موتور جستجوگر قبلاً پايگاه دادهاش «Database » را آماده كرده است و اين گونه نيست كه در همان لحظه جستجو، تمام وب را بگردد . بسياري از خود ميپرسند كه چگونه امكان دارد گوگل « Google» در كمتر از يك ثانيه تمام سايتهاي وب را بگردد و ميليونها صفحه را در نتايج جستجوي خود ارائه كند ؟
نه گوگل و نه هيچ موتور جستجوگر ديگري توانايي انجام اين كار را ندارد. همه آنها در زمان پاسخگوي به كاربران، تنها در پايگاه دادهاي كه در اختيار دارند به جستجو ميپردازند و نه در وب ! موتور جستجوگر به كمك بخشهاي متفاوت خود، اطلاعات مورد نياز قبلاً جمعآوري، تجزيه و تحليل ميكند و آنرا در پايگاه دادهاش ذخيره مينمايد، بخشهاي مجزاي يك موتور جستجوگر عبارتند از :
·Spiderيا عنكبوت
·Crawlerيا خزنده
·Indexerيا بايگاني كننده
·Databaseيا پايگاه داده
·Rankerيا سيستم رتبه بندي
الف ـ Spider(عنكبوت)
اسپايدر يا روبوت « Robot » نرم افزاري است كه كار جمعآوري اطلاعات مورد نياز يك موتور جستجوگر را بر عهده دارد . اسپايدر به صفحات مختلف سر ميزند، محتواي آنها را ميخواند و اطلاعات مورد نياز موتور جستجوگر را جمعآوري ميكند و آنرا در اختيار ساير بخشهاي موتور جستجوگر قرار ميدهد.
كار يك اسپايدر، بسيار شبيه كار كاربران وب است. همانطور كه كاربران، صفحات مختلف را بازديد ميكنند، اسپايدر هم اين كار را انجام ميدهد با اين تفاوت كه اسپايدر كدهاي HTML صفحات را ميبيند اما كاربران نتيجه حاصل از كنار هم قرار گرفتن اين كدها را.
اسپايدر، به هنگام مشاهده صفحات، از خود بر روي سرورها « رد پا بر جاي ميگذارد . شما اگر اجازه دسترسي به آمار ديد و بازديدهاي صورت گرفته از يك سايت و اتفاقات انجام شده در آنرا داشته باشيد، ميتوانيد مشخص كنيد كه اسپايدر كدام موتورهاي جستجوگر صفحات سايت را مورد بازديد قرار دادهاند .
اسپايدرها كاربردهاي ديگري نيز دارند، به عنوان مثال عدهاي از آنها به سايتهاي مختلف مراجعه ميكنند و فقط به بررسي فعال بودن لينكهاي آنها ميپردازند و يا به دنبال آدرس پست الكترونيكي « Email » افراد ميگردند .
ب ـ Crawler (خزنده )
كراولر، نرم افزاري است كه به عنوانفرمانده براي اسپايدر عمل ميكند. كراولر مشخص ميكند كه اسپايدر كدام صفحات را مورد بازديد قرار دهد. در واقع كراولر تصميم ميگيرد كه كدام يك از لينكهاي صفحهاي كه اسپايدر در حال حاضر در آن قرار دارد، دنبال شود. ممكن است همه آنها را دنبال كند، بعضيها را دنبال كند و يا هيچ كدام را دنبال نكند .
كراولر، ممكن است قبلاً توسط دارندگان موتورهاي جستجوگر برنامهريزي شده باشد كه آدرسهاي خاصي را طبق برنامه در اختيار اسپايدر قرار دهد تا از آنها ديدن كند .
دنبال كردن لينكهاي يك صفحه به اين بستگي دارد كه موتورهاي جستجوگر چه حجمي از اطلاعات يك سايت را ميتواند در پايگاه دادهاش ذخيره كندو همچنين ممكن است اجازه دسترسي به عضي از صفحات به موتورهاي جستجوگر داده نشده باشد.
شما به عنوان دارنده سايت، همان طور كه دوست داريد موتورهاي جستجوگر اطلاعات شما را با خود ببرند، ميتوانيد آنها را از بعضي از صفحات سايتتان دور كنيد و اجازه دسترسي به محتواي آن صفحات را به موتورهاي جستجوگر ندهيد .
تنظيم ميزان دسترسي موتورهاي جستجوگر به محتواي يك سايت توسط پروتكل Robots انجام ميشود . به عمل كراولر، خزش (Crawling ) ميگويند.
ج ـ Indexer ( بايگاني كننده )
تمام اطلاعات جمعآوري شده توسط اسپايدر در اختيار ايندكسر قرار ميگيرد . در اين بخش اطلاعات ارسالي مورد تجزيه و تحليل قرار ميگيرند و به بخشهاي متفاوتي تقسيم ميشوند . تجزيه و تحليل بدين معني است كه مشخص ميشود اطلاعات از كدام صفحه ارسال شده است، چه حجمي دارد، كلمات موجود در آن كدام است، كلمات چند بار تكرار شده است، كلمات در كجاي صفحه قرار دارند و… .
در حقيقت ايندكسر صفحه را به پارامترهاي آن خرد ميكند و تمام اين پارامترها را به يك مقياس عددي تبديل ميكند تا سيستم رتبه بندي بتواند پارامترهاي صفحات مختلف را با هم مقايسه كند.
در زمان تجزيه و تحليل اطلاعات، ايندكسر براي كاهش حجم دادهها از عضي كلمات كه بسيار رايج هستند صرفنظر ميكند. كلماتي نظير a، an، the، www، isو … از اين گونه كلمات هستند .
د ـ Database( پايگاه داده )
تمام دادهها تجزيه و تحليل شده در ايندكسر، به پايگاه داده ارسال ميگردد. در اين بخش، دادهها گروهبندي، كدگذاري، و ذخيره ميشود . هنچنين دادهها قبل از آنكه ذخيره شوند، فشرده ميشوند تا حجم كمي را اشغال كنند.
يك موتور جستجوگر بايد پايگاه داده عظيمي داشته باشد و به طور مداوم حجم محتواي آنرا گسترش دهد و البته اطلاعات قديمي را هم به روز كند. بزرگي و به روز بودن پايگاه داده يك موتور جستجوگر براي آن امتياز محسوب ميگردد. يكي از تفاوتهاي اصلي موتورهاي جستجوگر در حجم پايگاه داده آنها و همچنين روش ذخيره سازي داده است .
و ـ Ranker( سيستم رتبه بندي )
بعد از آنكه مراحل قبل انجام شد، موتور جستجوگر آماده پاسخگويي به سئوالات كاربران است. كاربران چند كلمه را در جعبه جستجوي « Search Box» آن وارد ميكنند و سپس با فشردن Enter منتظر پاسخ ميمانند . در اين مرحله، سيستم رتبه بندي وارد عمل ميشود و ابتدا تمام صفحات موجود در پايگاه داده، كه به موضوع جستجو شده، مرتبط هستند را مشخص ميكند . سپس آنها را به ترتيب از بيشترين ارتباط تا كمترين ارتباط مرتب ميكند و در نتايج جستجو به كاربر ارائه ميكند .
حتي اگر موتور جستجو گر بهترين و كاملترين پايگاه داده را داشته باشد اما نتواند پاسخهاي مرتبطي را ارائه كند، يك موتور جستجوگر ضعيف خواهد بود .
سيستم رتبهبندي قلب تپنده يك موتور جستجوگر است و تفاوت اصلي موتورهاي جستجوگر در اين بخش قرار دارد. سيستم رتبه بندي براي پاسخگويي به سئوالات كاربران، پارامترهاي بسياري را در نظر ميگيرد تا بتواند بهترين پاسخها را در اختيار آنها قرار دهد.
الگوريتم ، مجموعهاي از دستورالعملها است كه موتور جستجوگر با اعمال آنها بر پارامترهاي صفحات موجود در پايگاه دادهاش ، تصميم ميگيرد كه صفحات مرتبط را چگونه در نتايج جستجو ، مرتب كند . در حال حاضر قدرتمندترين سيستم رتبهبندي را گوگل دراختيار دارد .
البته ميتوان با ادغام كردن وظيفههاي اسپايدر با كراولر و همچنين ايندكسر با پايگاه داده موتور جستجوگر را شامل سه بخش زير دانست كه اين گونه تقسمبندي هم درست ميباشد :
·كراولر
·بايگاني
·سيستم رتبهبندي
تذكر ـ براي سهولت در بيان مطالب بعدي هرگاه صحبت از بايگاني كردن ( شدن ) به ميان ميآيد ، مقصود اين است كه صفحه تجزيه و تحليل و به پايگاه داده موتور جستجوگر وارد ميشود .
براي آنكه تصور درستي از نحوه كار يك موتور جستجوگر داشته باشيد مثال غير متعارف زير را با هم بررسي ميكنيم .
يك شكارچي تصميم به شكار ميگيرد :
ـ كار كراولر:
او قصد دارد براي شكار به منطقه حفاظت شده ابيورد ، در شهرستان درگز ( شمال خراسان ) برود .
ـ پروتكل Robots :
ابتدا تمام محدوديتهاي موجود براي شكار در اين منطقه را بررسي ميكند :
آيا در اين منطقه ميتوان به شكار پرداخت ؟
كدام حيوانات را ميتوان شكار كرد ؟
حداكثر تعداد شكار چه ميزاني است ؟
و… .
فرض ميكنيم او مجوز شكار يك اوريال ( نوعي آهو ) را دريافت ميكند .
ـ كار اسپايدر :
او اوريال رعنا را شكار ميكند و سپس آنرا به منزل ميبرد .
ـ كار ايندكسر :
شكار را تكهتكه كرده ، گوشت ، استخوان ، دل و قلوه ، كله پاچه و … آنرا بستهبندي ميكند و بخشهاي زايد شكار را دور مياندازد .
ـ كار پايگاه داده :
بستههاي حاصل را درون فريزر قرار داده ، ذخيره ميكند .
ـ كار سيستم رتبهبندي :
مهمان سراغ او ميآيد همسر او بسته به ذائقه مهمانان براي آنها غذا طبخ ميكند ، ممكن است عدهاي كله پاچه ، عدهاي آبگوشت ، عدهاي جگر و … دوست داشته باشند . پخت غذا طبق سليقه مهمانان كار سختي است . ممكن است همه آنها آبگوشت بخواهند اما آنها مسلماً با مزهترين آبگوشت را ميخواهند !
انواع موتورهاي جستجوگر :
موتورهاي جستجوگر( با درجات متفاوتي از موفقيت ) در واقع يك كار انجام ميدهند :
فراهم آوردن يك وسيله جستجوي ساده براي كمك به كاربران در رسيدن به اطلاعات مورد نياز .
براي نيل به اين مهم ، موتورهاي جستجوگر از اطلاعات موجود در پايگاه دادهشان كمك ميگيرند . اطلاعات اين پايگاه داده نيز به روشهاي گوناگوني تامين ميشود . كار جمعآوري داده را اسپايدرها بر عهده دارند . اما آيا همه موتورهاي جستجوگر ، اسپايدر دارند ؟ آيا همه اسپايدرها مثل هم كار ميكنند ؟
با توجه به نوع جمعآوري اطلاعات ، شيوه ارائه نتايج و مواردي ديگر ، موتورهاي جستجوگر به انواع گوناگوني تقسيم ميشوند كه عبارتند از :
· Saerch Engine
· Directory
· Meta Search Engine
· Pay Per Click Search Engine
· Specialty Search Engine
الف ـ Saerch Engine يا موتورهاي جستجوگر
در اين نوع از موتورهاي جستجوگر ، كار جمعآوري اطلاعات بر عهده اسپايدرها است . در حالت كلي زماني كه صحبت از موتورهاي جستجوگر ميشود ، مقصود ، اين نوع آن است .
پايگاه داده اين نوع از موتورهاي جستجوگر بزرگتر از ساير انواع است و اطلاعاتي را كه آنها ارائه ميدهند ، معمولاً به روزتر ميباشد . عمليات به روز رساني و گسترش پايگاه داده موتورهاي جستجوگر از يك هفته تا چند ماه به طول ميانجامد .
اسپايدرها ، هيچگاه از كار نميايستند و به طور مداوم به جمعآوري اطلاعات مشغول هستند. ممكن است اطلاعات جمعآوري شده توسط اسپايدرها از صفحات جديدي باشد و يا اطلاعات به روز شده از صفحاتي بشد كه قبلاً هم به آنها مراجعه كردهاند .
وقتي كه صحبت از تكنيكهاي بهينهسازي رتبه سايتها ميشود در واقع تكنيكهايي مطرحاند كه براي كار با اين نوع ازموتورهاي جستجوگر مؤثرند . بعضي از اين نوع موتورهاي جستجوگر عبارتند از :
Googole , MSN , Altavista , NorthernLight , WiseNut , Teoma …
ب ـ Directory يا فهرست
دايركتوريها اطلاعات را در گروههاي مختلف دستهبندي ميكنند . تفاوت اصلي دايركتوري با يك موتورهاي جستجوگر در اين است كه دايركتوري اسپايدر ندارد .
دارندگان سايتها به دايركتوري مراجعه ميكنند ، گروه مناسب براي سايت خود را در آن بر ميگزينند و سايت خود را به آن گروه معرفي ميكنند . پس از آنكه اطلاعات سايتها به گروههاي مختلف ارسال شد ، ويراستاران دايركتوري آن اطلاعات را بررسي ميكنند . در صورتي كه گروه درخواست شده ، با زمينه فعاليت سايت معرفي شده يكي باشد و همچنين ساير قوانين دايركتوري نيز رعايت شده باشد ، سايت معرفي شده را در گروه ياد شده ميپذيرد و در غير اينصورت از قبول آن امتناع ميكنند.
در صورتي كه كاربران استفاده درستي از گروه دايركتوري بنمايد ميتوانند اطلاعات مفيدي رابه كمك آنها كسب كنند .
دايركتوري از وجود يك سايت مطلع نميگردد مگر زماني كه آن سايت به دايركتوري معرفي شود تا در يكي از گروههاي آن قرار گيرد .
يكي از ايراداتي كه به دايركتوريها وارد ميشود اين است كه سايتهاي مرده زيادي در خود دارند . به عبارت ديگر يك سايت بعد از آنكه به آن معرفي شده است ديگر به فعاليت خود ادامه نداده است اما با اين حال هنوز هم دايركتوري آن به عنوان يك سايت فعال به كاربران معرفي ميكند .
البته دايركتوريهاي حرفهاي با استخدام ويراستاران زيادي تلاش بسياري براي رفع اين نقص مينمايند .امكان دارد دايركتوريها براي بررسي اين مورد از اسپايدرها هم كمك بگيرند .در اين مورد خاص ، كار اسپايدر اين است كه بررسي كند كه آيا سايتهايي كه قبلاً در گروهها قرار گرفتهاند ،هنوز هم فعال ميباشند ؟
قرار گرفتن در پايگاه داده دايركتوريهاي عمده ، نقش مهمي در كسب رتبههاي بالا در موتورهاي جستجوگر ( نوع اول ) دارد . دايركتوريهاي عمده عبارتند از :
Yahoo , Look Smart , Dmoz
ج ـ Meta Search Engine يا ابر جستجوگر
ابر جستجوگر از نتايج ساير موتورهاي جستجوگر استفاده ميكند . كار بدين صورت است كه سئوالات كاربران را همزمان به موتورهاي جستجوگر مختلفي ارسال و نتايج جستجوي آنها را بررسي ميكند و در نهايت رتبههاي بالاي آنها را با اعمال پارمترهاي مورد توجه الگوريتم رتبهبندي خود ، به عنوان نتايج جستجوي خود نشان ميدهد .اين نوع موتور جستجوگر اسپايدر ندارد .
مهمترين آنها عبارنتد از :
Meta Crawler , Dogpile , IXQuick , Mamma , Vivisimo , ez2find
دـ Pay Per Click Search engine يا موتورهاي جستجوگر رتبهبندي به ازاي پول!
كار آنها بسيار شبيه يك مزايده است :
با توجه به واژه كليكي انتخابي ، براي بالاترين رتبه ، بايد بالاترين قيمت نسبت به ساير متقاضيان پرداخت شود .
در واقع نحوه ارائه نتايج جستجو در PPC با اين ترتيب است كه اگر سايتي خواهان بالاترين رتبه (رده اول) در نتايج جستجوي آن ميباشد ، بايد بالاترين رقم به ازاي هر كليك را نسبت به تمام رقبا بپردازد .
به عنوان مثال اگر سايتي مكان اول را براي عبارت""Persian carpet به قيمت 28 ريال خريده باشد هر بار كه عبارت ياد شده جستجو گردد و كاربر با دنبال كردن پيوند ارائه شده به سايت خريدار مراجعه كند 28 ريال از سوي سايت خريدار رتبه به موتور جستجوگر بايد پرداخته شود . اگر هزار نفر اين كار را انجام دهند آنگاه 1000×28 ريال بايد پرداخته شود .
البته اين گونه نيست كه اين گونه از موتورهاي جستجوگر فقط سايت هايي را نمايش دهند كه با آنها قرارداد تجاري دارند . بلكه ابتدا تمام سايت هايي را كه با آنها قرار داد تجاري دارند نمايش ميدهد و سپس سايت هاي ديگر را براي تكميل كردند نتايج جستجوي خود به سايت هاي ياد شده مي افزايند .
روش ارائه نتايج در يك موتورهاي جستجوگر رتبه به ازاي پول
سايت هاي رده 110 و 111 براي عبارت ""free stuff هزينه ميپردازند كه بالاتر از سايت رده 112 ايستادهاند . به عبارتهاي listing sponsored و additional listing
توجه كنيد . فكرش را بكنيد كه 111 سايت حاضر به پرداخت پول براي اين عبارت بودهاند در حالي كه همه آنها ميدانستهاند در چه رتبهايي نشان داده خواهند شد . اگر فرض كنيم كه سايت رده 111 براي هر كليك تنها يك سنت بپردازد و اختلاف هر رتبه با رتبه هاي ديگر تنها يك سنت باشد آنگاه سايت رتبه اول حاضر به پرداخت 111 سنت براي هر كليك بوده است . سايت هاي را مشاهده كرده اند كه حاضر به پرداخت 14 دلار به ازاي هر كليك نيز بوده اند !
اين رقابت شديد در اين نوع از موتورهاي جستجوگر ميتواند ناشي از بازده بسيار بالاي اين نوع موتورهاي جستجوگر و همين طور اطمينان دارندگان سايت ها از فروش خود باشد . البته مي توانيد سايت هايي را كه ناشيانه حاضر به پرداخت رقم بالايي را شده اند را هم به دلايل بالا بيافزايد .
فوايد آنها :
ـ دارنده سايت تنها زماني پول ميپردازد كه واقعاً بينندهاي به سايت او بيائيد .
ـ سايت تقريباً در عرض چند ساعت و يا حداكثر يك هفته در نتايج جستجو قرار مي گيرد و ديگر نيازي به چندين ماه ماندن نيست تا در نتايج جستجوي ساير موتورهاي جستجوگر قرار گيرد كه آن هم معلوم نيست در چه رتبهايي قرار خواهد گرفت .
ـ سايتي اگر بالاترين رتبه را ميخواهد كافي است كه بالاترين قيمت را بپردازد و ديگر نيازي به كاربرد تكنيكهاي رايج براي كسب رتبههاي بالا نيست .
ـ يك سايت با استفاده از سيستم اين موتورهاي جستجوگر در نتايج جستجوي شركاي تجاري آنها هم قرار ميگيرد .
برخي از آنها عبارتند از :
Overture , Googole Adwords , Findwhat , kanoodle ,…
ه ـ Specialty Search Engine يا موتورهاي جستجوگر خاص
اين نوع از موتورهاي جستجوگر بر موضوعي خاص تمركز دارند و تنها سايتهاي مرتبط با آن موضوع را در پايگاه داده خود قرار ميدهند. به عنوان مثال يكي از آنها ممكن است تنها سايتهاي ايراني را بپذيرد و موضوع فعاليتش سايتهاي ايراني باشد .
اين موتورهاي جستجوگر معمولاً اطلاعات تخصصيتري را ارائه ميدهند زيرا معمولاً توسط افراد متخصص درآن زمينه اداره ميشوند . موتورهاي جستجوگر منطقهاي و موضوعي نيز با اين دسته تعلق دارند . دراين مورد ميتوان به مواردي نظير :
chemicalSearch , IndustrySearch اشاره كرد .
نسل بعدي موتور جستجوگر
سرعت باور نكردني و دامنه عملكرد و دسترسي فوقالعاده موتورهاي پر قدرت جستجوي اينترنتي از يك محدوديت و شايد بتوان گفت نقطه ضعف اساسي رنج ميبرند. اينكه تنها در پاسخ به كلمات به كار ميافتند ، اگر لحظهاي عمقي به مسئله نگاه كنيد ، متوجه موجوديت كسل كننده و يكنواخت اين سايتها خواهيد شد . اين درحالي است كه جهان فوقالعاده درخشان ، متنوع و مملو از اشياء و الگوهايي است كه هر يك در برگيرنده توصيفاتي قابل جستجو هستند . اكنون پژوهشگران عرصه كامپيوتر به اميد بهرهمندي هر چه بيشتر از اين نعمات خداوندي ، موتورهاي جستجوگر جديدي طراحي كردهند كه ميتوانند منبع سرشاري از كاتالوگهاي اشياء 3 بعدي مانند قطعات هواپيما يا مشخصههاي معماري را در اختيار كاربران قرار دهند .
در ورود به اين سايتها تنها كاري كه خود بايد انجام دهد ، آن است كه آنچه در ذهن خود دارد و به دنبالش است ، با خطوط كلي ترسيم نمايد . در اين حالت موتورهاي جستجو اشياء مشابه و همتراز آن را در فهرست نتايج آن ارائه ميكند .
«كارتيك راماني » پروفسور دانشگاه « پرديو » و خالق سيستمي كه قادر به يافتن قطعات صنعتي طراحي شده توسط كامپيوتر ميباشد ، در مورد اختراع خود ميگويد : ايده دانش و اطلاعات و بازيابي آن دانش مدتها بود كه توجه و كنجكاوي من را به خود جلب كرده بود و اكنون احساس ميكنم كه مكانيسم ابداعيام مفهومي مستحكم و يكپارچه به اين بازاريابي ميبخشد .
« راماني » انتظار دارد موتور جستجويش بويژه براي كمپانيهاي بزرگ صنعتي كاربردهاي فراواني داشته باشد خصوصاً اين كه مهندسين اين شركتها غالباً وقت و انرژي قابل توجهي را صرف طراحي يك قطعه تخصصي ميكنند در حالي كه پيشتر فرد ديگري نوع مشابه آنرا خلق كرده است ، استفاده نموده و و يا كنار گذاشته است « ريك جفز » مهندس ارشد مركز موتورهاي «كاترپيلار» معتقد است تكنولوژي « راماني » ميتواند به كمپانيها در ساده ساختن صورت موجوديشان كمك نمايد .
موسسه «جفز» به تنهايي دهها هزار قطعه جورواجور توليد ميكند «جفز» در تشريح بيشتر موضوع ميگويد : اگر شما قصد طراحي يك زانويي جديد براي خط لوله نفت را داشته باشيد ، در كاخانهها به وفور از اين قطعه توليد ميشود اما خلق CAD در حال حاضر گرچه بسياري از آنها با كمك نرمافزار طراحي كامپيوتري ميگردند ، براي اينكه بصورت كاتالوگ درآيند ، بايستي هر يك جداگانه مورد آزمايش قرار گيرند . كا كسل كنندهاي كه حتي اغلب انجام نميگيرد زيرا عملي و معقول نيست .
حال با اين روش كارخانجات ميتوانند صورت موجودي خود را به سادهترين شيوه ممكن تهيه و ارائه نمايند . با بهرهگيري از موتور جستجوي جديد ، طراحان ميتوانند طرح قطعه مورد نياز خود را بصورت كلي ترسيم كنند و ظرف مدت چند ثانيه تعداد بيشماري قطعه در قالب صورت موجوديهاي گوناگون در برابر ديدگانش ظاهر خواهد گشت كه با نوع مورد درخواست آنها شباهت و حتي مطابقت خواهد داشت در صورتي كه يك قلم از نتايج ارائه شده با اندك تفاوتهايي نزديك به طرح مورد نظر كاربر باشد ، وي ميتواند اسكلتي از آن قطعه را مشاهده كرده و بر روي صفحه كامپيوتر خود آنرا دستكاري نمايد به عنوان مثال ابعادش را كوتاه و بلند كرده و يا منحني بسازد ، سپس مجدداً پايگاه دادههاي موتور جستجو را مورد كاوش قرار دهد در دنياي امروز نياز براي سرعت در پروسه توليد محصولات بيش از هر زمان ديگري احساس ميشود و اين موتور جستجو از نوع پيشرفتهايي است كه ميتواند در تحقق اين هدف، فوقالعاده موثر واقع شود مضاف براين كه كارآيي و بازده را نيز به نحوه قابل توجهي بالا ميبرد .
البته موتورهاي جستجوي رايج در اينترنت هنوز در تلاش براي تسلط پيدا كردن بر تصاوير دو بعدي هستند به عنوان مثال برنامه جستجوي عكس گوگل نتايج نسبتاً خوبي ارائه مينمايد اما عملاً قادر به گشتن در مجموعه تصاوير خود نيست و بيشتر متن حاشيهاي طرح را ملاك كار قرار ميدهد .
در هر حال موتورهاي جستجوي سه بعدي كه به عنوان ابزاري خلاق و قدرتمند ظاهر گشتهاند ميروند تا عرصه كار با كامپيوترها را متحول سازند، نرم افزارهاي دو سويه طراحي و مدل سازي نيز مجموعه طرحهاي موجود براي جستجو را نه تنها در زمينه هاي صنعتي بلكه در عرصه دنياهاي مجازي آن لاين گسترش دادهاند .
محققان بسياري در اين حوزه وارد شدهاند از آن جمله مهندسين كمپاني بوئينگ هستند كه چند سالي است با هدف استفاده مجدد از برخي قطعات يك موتور جستجوي سه بعدي براي خود ابداع كردهاند .
پرفسور « توماس فانخوسر» و همكارانش از دانشگاه پرينستون نيز نوعي موتور جستجوي سه بعدي در اينترنت راه اندازي كردهاند كه براي افراد اين امكان را فراهم ميآورد تا با استفاده از يك ماوس كامپيوتر طرح كلي يك شئي را ترسيم نموده، توضيحات متني به آن اضافه كرده و سپس براي مدلهايي مشابه آن در پايگاه داده هايي طراحي به جستجو بپردازند . نتايج ميتواند شگفت آور و خيره كننده باشد به گونهاي كه شما را به حيرت وا دارد . به عنوان مثال اگر يك سيب زميني بزرگ بكشيد سيستم با ارائه مجموعهاي از اشياء با ظاهر سيبزميني مانند پاسخ مي دهد اما اين عين حال چند سماور نيز برايتان نمايش خواهد داد. شايد در نظر اول تصور كنيد سايت در نتايج خود دچار اشتباه شده اما با چرخاندن طرح سيبزمينيتان ، متوجه مي شويد كه موتور جستجو درست حدس زده و طرح شما در صورت عمودي قرار گرفتن ، در قسمت بالا و انتهايي باريك تر و در بخش مياني برجسته است و اين بدان معناست كه سايت كليه حدس هاي احتمالي را در نظر ميگيرد . اين تواناييهاي خارق العاده فرآيند جستجوي قديمي بر مبناي درج كلمات كليدي را به نوعي ابزار كند و كسل كننده بدل ساخته است . البته ترديدي نيست كه «متن» مي تواند همچنان دقيق تر از «طرح» عمل كند.
حال پرسش اينجاست كه يك برنامه كامپيوتري چگونه به دنبال اشياء مي گردد . راز اين دستاورد پديدهاي به نام « ووكسل» . مالكين دوربين هاي ديجيتال با «پيكسل » آشنايي دارند كه عنصر پايهاي يك تصوير ديجيتال است . هر «پيكسل» ذره كوچكي از رنگ ميباشد . به همين شكل « ووكسل» نيز عنصر اصلي يك شي سه بعدي است كه درون كامپيوتر نمايش داده ميشود. هر«ووكسل» كه در برگيرنده حجم شي مورد نظر دارد. در كه توسط كاربران ترسيم گرديده ، به CAD برنامه « راماني» نيز بطور مثال طرح هاي «ووكسل» تبديل مي شوند. سپس الگوهايي« ووكسل»موجود در پايگاه داده ها براي يافتن شباهت هاي احتمالي با طرح ترسيم شده كاربر مقايسه مي شوند. به دليل آنكه «ووكسلها» بيشتر در برگيرنده حجم هستند تا شكل، برنامه مزبور مي تواند مثلاً يك فنجان قهوه را به عنوان حجم كار در نظر گرفته و مشخصه گود و توخالي بودن آن را مد نظر قرار دهد بدون توجه به دسته توپري كه مي تواند داشته باشد .
مكانيسم جستجوي سه بعدي به تدريج از اين هم هوشمند تر خواهد شد . اين برنامه را ميتوان به گونه اي تجهيز كرد كه با درك عمقي كاوش هاي كاربران ، در نهايت الگوهاي مشترك را از يكديگر تمييز دهد. يك كامپيوتر مي تواند نهايتاً تشخيص دهد كه چند تصوير به ظاهر متفاوت همگي نشان دهنده يك انسان هستند حتي اگر در حالات و ژست هاي مختلف باشند .
در آينده نزديك سيستم جستجوي سه بعدي به احتمال قوي بيشتر براي كاربردهاي صنعتي اختصاص خواهد يافت با اين وجود « پيترنورويگ»مدير كيفيت جستجوي گوگل ، تكنولوژي جديد را جالب خوانده و خاطر نشان مي سازد در صورت آغاز پروسه ، طراحان گوگل با جديت بيشتري به آن خواهند پرداخت «قرار راماني» هنوز در حال تنظيم و تكميل موتور جستجوي سه بعدي خود مي باشد و مجوز صادر مي گردد . وي Imaginestics است براي ابداع وي از سوي موسسه تحقيقاتي كه هنوز در مورد پيشرفت حاصله و قابليت دسترسي به اشياء از طريق كامپيوتر هيجان شده است ، مقطع كنوني را آغاز عصر اطلاعات توصيف مي كند.
منابع و مآخذ :
1ـ WWW. Iranseo. Com
2ـ آموزش اينترنت در 10 روز نوشته احمد سعادت
3ـ مقاله نسل فرداي موتورهاي جستجوگر مجله كامپيوتر
4ـ اينترنت نوشته علي صداقت انتشارات آذرخش
5ـ CD آموزشي اينترنت ساخته شده توسط شركت رايان گستر
منبع : سايت علمی و پژوهشي آسمان -- صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 10 فروردین 1399 ساعت: 21:29 منتشر شده است
برچسب ها : موتور جستجوگر چگونه كار مي كند,انواع موتورهاي جستجوگر,موتورهای جستجو و ویژگی های آنها,