67 জন দেখেছেন
"ইন্টারনেট" বিভাগে করেছেন (5,273 পয়েন্ট)

1 উত্তর

0 পছন্দ 0 জনের অপছন্দ
করেছেন (5,273 পয়েন্ট)
এর কারণ হল সার্চ ইঞ্জিনগুলো তাদের সার্চ তদারকি করে এক ধরনের ভার্চুয়াল রোবট তথা Crawler দিয়ে। এই Crawler গুলো ওয়েবসাইটের HTML tag দেখে ওয়েবসাইটগুলোকে লিপিবদ্ধ করে।তাছাড়া কিছু কিছু সাইট থেকে সার্চ ইঞ্জিনে লিপিবদ্ধ হওয়ার জন্য রিকোয়েস্ট যায়। এখন যে সমস্ত সাইট এডমিন চান না যে তাদের সাইটটি সার্চ ইঞ্জিন খুঁজে না পাক, তারা Robot Exclusion Protocol ব্যবহার করেন যা Crawler গুলোকে সাইটগুলো খুঁজে পাওয়া বা লিপিবদ্ধ করা থেকে বিরত রাখে। কিছু সাইট আছে ডাইনামিক অর্থাৎ নির্দিষ্ট কিছু শর্ত পূরণ সাপেক্ষে এই ধরণের সাইটের অস্তিত্ব খুঁজে পাওয়া সম্ভব, আর Crawler এর পক্ষে এই সব করা সম্ভব হয় না। কিছু সাইট আছে যেগুলোতে অন্য সাইট থেকে লিংক নেই। এগুলো বিচ্ছিন্ন সাইট, এগুলোও সার্চে আসে না। তাছাড়া বলতে গেলে সার্চ ইঞ্জিন টেকনোলজি এখনো তার আঁতুড় ঘর ছাড়তে পারে নি। সার্চ ইঞ্জিনগুলো Text বাদে অন্য ফরম্যাটে থাকা(যেমন ফ্ল্যাশ ফরম্যাট) ওয়েবপ্যাজ খুঁজে পায় না!
এই ডীপ ওয়েবে থাকা তথ্যগুলো সারফেস ওয়েবের তথ্য থেকে মানে গুনে এগিয়ে। এগুলো খুবই সুসজ্জিত এবং প্রাসঙ্গিক।
টি উত্তর
২১ জানুয়ারি ২০১৯ "ক্যারিয়ার" বিভাগে উত্তর দিয়েছেন Ariful (৬৩৭৩ পয়েন্ট )
টি উত্তর

সম্পর্কিত প্রশ্নগুচ্ছ

1 উত্তর
14 মার্চ 2014 "SEO ?" বিভাগে জিজ্ঞাসা করেছেন Tanmoy Chakrabortty (1,939 পয়েন্ট)
0 টি উত্তর
2 টি উত্তর

288,269 টি প্রশ্ন

373,576 টি উত্তর

112,990 টি মন্তব্য

156,864 জন নিবন্ধিত সদস্য



বিস্ময় বাংলা ভাষায় সমস্যা সমাধানের একটি নির্ভরযোগ্য মাধ্যম। এখানে আপনি আপনার প্রশ্ন করার পাশাপাশি অন্যদের প্রশ্নে উত্তর প্রদান করে অবদান রাখতে পারেন অনলাইনে বিভিন্ন সমস্যার সমাধানের জন্য সবথেকে বড় এবং উন্মুক্ত তথ্যভাণ্ডার গড়ে তোলার কাজে।
* বিস্ময়ে প্রকাশিত সকল প্রশ্ন বা উত্তরের দায়ভার একান্তই ব্যবহারকারীর নিজের, এক্ষেত্রে কোন প্রশ্নোত্তর কোনভাবেই বিস্ময় এর মতামত নয়।
...