এসইও শিখুন: পর্ব ১,২,৩,৪,৫

Author Topic: এসইও শিখুন: পর্ব ১,২,৩,৪,৫  (Read 3689 times)

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
এসইও কী এবং কেন গুরুত্বপূর্ণ?
সহজভাবে বলতে গেলে, মূলত সার্চ ইঞ্জিন অপটিমাইজেশন বা এসইও হচ্ছে সার্চ ইঞ্জিনের কিছু নিয়মকানুন যা অনুসরণ বা প্রয়োগ করা হলে সার্চ ইঞ্জিন কাঙ্ক্ষিত ওয়েবসাইটটিকে সার্চ ইঞ্জিনের কাছে গুরুত্বপূর্ণ মনে করে এবং র‌্যাঙ্ক করে থাকে। বর্তমান প্রতিযোগিতার বিশ্বে এসইও ছাড়া সার্চ ইঞ্জিন থেকে ভিজিটর বা ট্রাফিক পাওয়া প্রায় অসম্ভব। সাধারণত এসইও ছাড়া কোনো ওয়েবসাইটকেই সার্চ ইঞ্জিন র‌্যাঙ্কই করে না।

*ইংরেজি শব্দ এসইও (SEO) এর সম্পূর্ণ রূপ হলো সার্চ ইঞ্জিন অপটিমাইজেশন (search engine optimization) যা সার্চ ইঞ্জিনের কিছু সুনিয়ন্ত্রিত ও পরিকল্পিত নিয়ম/পদ্ধতি বা মেথড। যে সকল নিয়মগুলো যথাযথভাবে প্রয়োগ করে আপনি আপনার কাঙ্ক্ষিত ওয়েবসাইটটিকে সার্চ ইঞ্জিনের রেজাল্ট পেজের প্রথম দিকে দেখাতে পারবেন। এসইআরপি (SERPs) তে প্রথম দিকে আপনার ওয়েবসাইটটিকে দেখানোই এসইও-এর মূল উদ্দেশ্য।

*সার্চ ইঞ্জিন তৈরি হয়েছে মূলত ইউজারদের অনুসন্ধানের সঠিক তথ্য দেওয়ার জন্য আর এসইও (SEO) সেই তথ্যকে সার্চ ইঞ্জিন উপযোগী করে তুলে। এসইও এর মাধ্যমে আমরা বুঝতে পারি সার্চ ইঞ্জিনে ইউজাররা কী তথ্য খুঁজছে, কী ধরনের সমস্যার সমাধান চাচ্ছে, কী ধরনের শব্দ বা কিওয়ার্ড ব্যবহার করছে এবং কী ধরনের কনটেন্ট তারা চায়। এসইও এর মাধ্যমে আমরা সহজেই ইউজারদের এ সকল সমস্যার সমাধান দিতে পারি।

এসইও এর ইতিহাস:
আজকের এই এসইও অনেক পরিবর্তনের ফলাফল, যা আমরা মূলত গুগলের মাধ্যমে দেখতে পাই। ১৯৯১ সালে ৬ই আগস্ট টিম বার্নাস লির হাত ধরে প্রথম ওয়েবপেজ প্রকাশ করা হয়। এর কয়েক বছর পর ১৯৯৭ সালে প্রথম অফিশিয়ালি এসইও-এর যাত্রা শুরু হলেও ২০০১ সাল থেকে এসইও-এর গুরুত্ব বৃদ্ধি পেতে থাকে।

জেরি ইয়াং এবং ডেভিড ফিলো ১৯৯৪ সালের জানুয়ারি মাসে ইয়াহু সার্চ ইঞ্জিন প্রতিষ্ঠাতা করেন। তার পাশাপাশি তারা ইয়াহু ডিরেক্টরি তৈরি করেন।

১৯৯৮ সালের ৪ সেপ্টেম্বর ল্যারি পেজ এবং সের্গেই ব্রিনের হাত ধরে গুগল প্রতিষ্ঠিত হয়। বর্তমানে গুগল সার্চ ইঞ্জিনগুলোর মধ্যে অন্যতম এবং প্রধান। ইন্টারনেটে গুগল মোট সার্চের ৯০% এর চেয়েও বেশি গ্রাহক পেয়ে থাকে এবং এর পাশাপাশি তাদের বিভিন্ন জনপ্রিয় পণ্য ও সেবা রয়েছে।

১৯৯৮ সালে গোটো ডটকম (Goto.com) স্পনসর লিংক এবং পেইড সার্চ চালু করে। যেখানে অরগানিক রেজাল্টে প্রথমে থাকার জন্য পেইড করার প্রয়োজন হতো। গোটো মূলত ইয়াহু সার্চ ইঞ্জিনের সমর্থন নিয়ে কাজ করেছিল।
তারপর থেকে এ পর্যন্ত সার্চ ইঞ্জিনগুলো বিভিন্ন অ্যালগরিদম আপডেটের মাধ্যমে আজকের এ জায়গায় এসেছে। প্রতিযোগিতার দিক দিয়ে গুগল বর্তমানে সবার সেরা এবং মানসম্পন্ন সার্চ ইঞ্জিন।

সার্চ ইঞ্জিন বেসিক
সার্চ ইঞ্জিন মূলত একটি উত্তরদাতা যন্ত্র। এগুলো ইন্টারনেট থেকে লাখ লাখ কনটেন্ট পরিমার্জন/সন্নিবেশিত করে এবং এর মধ্য থেকে আবার হাজার হাজার ফ্যাক্টর দিয়ে মূল্যায়ন করার মাধ্যমে ঠিক করে কোনো তথ্যটি ইউজারের সার্চ অনুযায়ী সঠিক তা খুঁজে বের করে ইউজারের সামনে উপস্থাপন করে।

আর সার্চ ইঞ্জিন কাজটি করে থাকে ইন্টারনেটে যত তথ্য পাওয়া যায় (ওয়েব পেজ, ইমেজ, ভিডিও, পিডিএফ ইত্যাদি) তা ক্রলিং এবং ইনডেক্সিং এর মাধ্যমে। যে তথ্যটি ইউজারের জন্য বেশি উপযোগী তা র‍্যাঙ্কিং করে থাকে।


Source: https://www.prothomalo.com/technology/article/1634820/
« Last Edit: February 15, 2020, 09:44:54 AM by Sultan Mahmud Sujon »

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১
« Reply #1 on: January 25, 2020, 09:54:45 AM »
কোন সার্চ রেজাল্টগুলো ‘অরগানিক’?

ইতিমধ্যে বলা হয়েছে, অর্গানিক সার্চ রেজাল্টগুলো কোনো পেড বা বিজ্ঞাপনের মাধ্যমে নয় কেবল এসইও–এর মাধ্যমে সার্চ ইঞ্জিন রেজাল্ট পেজে আসে। অর্গানিক রেজাল্টগুলো হলো SERPs-এ দেখানো ‘১০টি ব্লু লিংক’ এবং এর ওপরে, নিচে ও পাশের রেজাল্টগুলোতে অ্যাড লেবেল দেওয়া থাকে। যাতে একটি পেজে থাকা পেড ও অরগানিক রেজাল্ট সহজেই বোঝা যায়। বর্তমানে আমরা যে ধরনের সার্চ ইঞ্জিন রেজাল্ট পেজ দেখি, অতীতে এমন ছিল না।

বর্তমানে সার্চ ইঞ্জিন রেজাল্ট পেজকে বলা হয় SERPs এবং এখন অ্যাডভারটাইজিংয়ের পাশাপাশি অরগানিক রেজাল্ট অনেক বেশি সমৃদ্ধ। SERP-এ অরগানিক রেজাল্ট ফিচার যেমন:

ফিচার স্নিপেট,
অ্যান্সার বক্স,
পিপল ‍অলসো আস্ক/সার্চ বক্স/সাজেশন,
ইমেজ ক্যারোজেল,
ভিডিও ক্যারোজেল,
নিউজ ইত্যাদি।
নতুন SERP ইউজারদের সার্চের ওপর ভিত্তি করে আরও নতুন নতুন ফিচার নিয়ে আসছে।

উদাহরণস্বরূপ: আপনি যদি সার্চ করেন ‘Dhaka Weather’ তাহলে আপনি দেখতে পাবেন কোনো লিংকের পরিবর্তে ঢাকার জলবায়ু পূর্বাভাসের একটি চিত্র। এবং আপনি যদি সার্চ করেন ‘Dhaka Pizza’ তখন দেখবেন কিছু লোকাল পিৎজার অবস্থান গুগল ম্যাপে, কিছু লিংক এবং ক্যারোজেল যেটা শুধু ঢাকা শহরের।

আপনাকে একটা বিষয় মনে রাখতে হবে যে, সার্চ ইঞ্জিনের আয়ের উৎস শুধু অ্যাডভারটাইজ বা বিজ্ঞাপন থেকে আসে। তাদের লক্ষ্য হলো ইউজারদের সঠিক তথ্যের সন্ধান দেওয়া যাতে ইউজাররা SERPs-এ পুনরায় আসে এবং দীর্ঘ সময় ধরে থাকে।

SERPs–এর কিছু ফিচার অরগানিক এবং তা এসইওয়ের মাধ্যমে প্রভাবিত করা যায়। বিজ্ঞাপনগুলোর ওপর এসইওয়ের কোনো প্রভাব নেই। এমন কিছু ফিচার আছে যেগুলোও অর্গানিক অ্যাডভারটাইজ–এ দুই-এর কোনোটাই প্রভাবিত করতে পারে না। যেমন উইকিপিডিয়া, আইএমডিবি, ওয়েবএমডি ইত্যাদি সাইটগুলো থেকে আসা সার্চ রেজাল্ট।

 

এসইও কেন দরকার বা গুরুত্বপূর্ণ?

এসইও (SEO) অনুশীলনের/প্রয়োগের মাধ্যমে ওয়েবসাইটের গুণগত মান ও ইউজার বৃদ্ধি পেয়ে থাকে, পাশাপাশি সার্চ ইঞ্জিনের রেজাল্ট পেজে অরগানিক ফলের মাধ্যমে কোম্পানির ব্র্যান্ডিং হয়ে থাকে।

ওয়েবসাইটে ট্রাফিক/ইউজার জেনারেট করার জন্য যদিও পেইড অ্যাডভারটাইজিং, সোশ্যাল মিডিয়া ‍এবং অন্যান্য অনলাইন প্ল্যাটফর্মগুলো রয়েছে। তারপরও বেশির ভাগ ইউজার ওয়েবসাইটে আসে সার্চ ইঞ্জিন থেকে।

সার্চ ইঞ্জিন তার রেজাল্ট পেজে বিভিন্ন ডিজিটাল ফিচার ও বিশ্বাসযোগ্য তথ্যবহুল উত্তর দেখায়, যা পেইড অ্যাডভারটাইজিংয়ের তুলনায় অধিক পরিমাণ ক্লিক জেনারেট করে। উদাহরণস্বরূপ, শুধু যুক্তরাষ্ট্রে সব ক্লিকের মাত্র ২.৮% আসে টাকা দিয়ে দেওয়া বিজ্ঞাপন বা পেইড অ্যাডভারটাইজিং থেকে।

এসইও একমাত্র অনলাইন মার্কেটিং চ্যানেল যেখানে সঠিকভাবে সেটআপ করা কাজ থেকে সময়ের সঙ্গে সঙ্গে আয় হতে বা রেভিনিউ জেনারেট হতে থাকে। আপনি যদি সাইটে তথ্যসমৃদ্ধ ও ব্যবহারবান্ধব কনটেন্ট দিতে পারেন এবং তা সার্চ ইঞ্জিনে সঠিক কি-ওয়ার্ডে র‍্যাঙ্কিং করে। তবে আপনার সাইটে সার্চ ইঞ্জিন থেকে ক্রমাগত ইউজার আসতে থাকবে। পেড অ্যাডভারটাইজিংয়ে প্রচুর অর্থ খরচ করেও আপনি যা পাবেন না।

বর্তমানে সার্চ ইঞ্জিনগুলো যদিও অনেক স্মার্ট, কিন্তু সঠিক সার্চ কনটেন্ট দেখানোর জন্য তারপরও আপনার সহযোগিতা দরকার। অপটিমাইজ করার মাধ্যমে আপনার সাইট সার্চ ইঞ্জিনকে তথ্যসমৃদ্ধ ও ইউজার ফ্রেন্ডলি কনটেন্ট দেবে। যাতে সার্চ ইঞ্জিন আপনার সাইটের কনটেন্ট ক্রলিং, ইনডেক্সিং এবং র‍্যাঙ্কিং করার মাধ্যমে সার্চ ইঞ্জিন রেজাল্ট পেজে দেখাতে পারে।

 

হোয়াইট হ্যাট বনাম ব্ল্যাক হ্যাট এসইও

‘হোয়াইট হ্যাট এসইও’ বলতে এসইও-এর সেই সব কৌশল, বেস্ট প্র্যাকটিস এবং ‍স্ট্রাটেজি বোঝায়, যা সার্চ ইঞ্জিনের সব গাইডলাইন অনুসরণ করে করা হয়। এটার প্রধান ফোকাস মূলত ইউজারদের ওপর।

‘ব্ল্যাক হ্যাট এসইও’ বলতে সেই সব কৌশল এবং ‍স্ট্রাটেজি, যা স্প্যামিংয়ের মাধ্যমে সার্চ ইঞ্জিনকে বোকা বানানোর চেষ্টা করা হয়। যার মাধ্যমে খুব কম সময়ের মধ্যে একটি ওয়েবসাইটকে সার্চ ইঞ্জিনে ভালো র‍্যাঙ্কিং-এ দেখানো যায়। কিন্তু এর ফলে সার্চ ইঞ্জিন সেই সাইটটিকে পেনাল্টি বা ডিইনডেক্সিং করে দিতে পারে। ‘ব্ল্যাক হ্যাট এসইও’তে সার্চ ইঞ্জিনের কোনো গাইডলাইন অনুসরণ করা হয় না।

পেনাল্টি পাওয়া ওয়েবসাইটের মাধ্যমে অনলাইনে কোনো ব্যবসায় সফল হওয়া যাবে না। সার্চ ইঞ্জিনের পেনাল্টি পাওয়ার অন্যতম কারণ হচ্ছে এসইও প্রফেশনাল, ‍এজেন্সি বাছাই করতে ভুল করা ও সার্চ ইঞ্জিনের গাইডলাইন অনুসরণ না করা।


Source: https://www.prothomalo.com/technology/article/1636070/%E0%A6%8F%E0%A6%B8%E0%A6%87%E0%A6%93-%E0%A6%B6%E0%A6%BF%E0%A6%96%E0%A7%81%E0%A6%A8-%E0%A6%AA%E0%A6%B0%E0%A7%8D%E0%A6%AC-%E0%A7%A8

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১,২,৩,৪,৫
« Reply #2 on: February 15, 2020, 09:46:34 AM »
‘এসইও শিখুন’ নামে ধারাবাহিকের আজ তৃতীয় পর্বে থাকছে সার্চ ইঞ্জিন গুগল এবং বিং ওয়েব মাস্টার গাইডলাইনের বিভিন্ন নীতিমালা এবং ব্যবহারকারীর কথা মাথায় রেখে কীভাবে ওয়েবসাইট তৈরি করা হবে, সেসব বিষয়। এ বিষয়গুলো অনুসরণ করে আপনার ওয়েবসাইটটিকে সার্চ ইঞ্জিনবান্ধব এবং সার্চ ইঞ্জিনের শাস্তি (পেনাল্টি) থেকে রক্ষা করতে পারবেন।

গুগল ওয়েব মাস্টার গাইডলাইন

মূলনীতি বা বেসিক প্রিন্সিপালস:

ওয়েব পেজ তৈরি করুন ব্যবহারকারী বা ইউজারের জন্য, সার্চ ইঞ্জিনের জন্য নয়।
ব্যবহারকারীর সঙ্গে কখনো প্রতারণা করবেন না।
সার্চ ইঞ্জিন গাইডলাইন ভঙ্গ করে বিভিন্ন ধরনের স্প্যাম ‍পদ্ধতি অনুসরণ করে সার্চ ইঞ্জিনে র‌্যাঙ্কিং করার চেষ্টা করবেন না।
আপনি সব সময় ইউজারদের জন্য কনটেন্ট তৈরি করুন। আপনি নিজেকে জিজ্ঞাসা করুন যে, আপনার কনটেন্ট টি কী ব্যবহারকারীর উপকারে আসবে? সার্চ ইঞ্জিন ছাড়া কী আপনার কনটেন্টটি গুরুত্বপূর্ণ?
চিন্তা করুন যে, আপনি কী কী করলে ওয়েবসাইটকে আরও অনন্য বা ইউনিক, তথ্যসমৃদ্ধ ও ব্যবহারবান্ধব করা যাবে।

কী কী জিনিস করা যাবে না:

অটোমেটিক জেনারেটেড কনটেন্ট তৈরি করা।
লিংক স্কিম ব্যবহার বা লিংকের অপব্যবহার করা।
টাইটেল অনুসারে কনটেন্ট তৈরি করা বা অন্য কারও কাছ থেকে কনটেন্ট কপি করে তা ব্যবহার করা।
ক্লোকিং করা বা সার্চ ইঞ্জিনকে একধরনের কনটেন্ট আর ইউজারকে আরেক ধরনের কনটেন্ট দেখানো।
হিডেন টেক্স বা লিংক ব্যবহার করা।
ডোরওয়ে পেজ করা-সুনির্দিষ্ট সার্চের জন্য পেজ তৈরি করা, যাতে র‌্যাঙ্ক করে এবং সার্চ থেকে ভিজিটর পাওয়া যায়।

বিং ওয়েব মাস্টার গাইডলাইন

বেসিক প্রিন্সিপালস:

ক্লিয়ার, ডিপ, এনগেজিং এবং সহজেই খুঁজে পাওয়া যায় এমন কনটেন্ট তৈরি করা।
পেজের টাইটেল ক্লিয়ার ও কনটেন্টের সঙ্গে মিল রাখা।
লিংককে বিং সার্চ ইঞ্জিন র‌্যাঙ্ক পপুলারিটি হিসেবে দেখে এবং অরিজিনাল লিংকের জন্য রিওয়ার্ড প্রদান করে।
সোশ্যাল মিডিয়ার অ্যাক্টিভিটি ও সোশ্যাল শেয়ার কে পজিটিভ সিগন্যাল হিসেবে কাউন্ট করা হয় এবং তা অরগানিক র‌্যাঙ্ক পেতে সাহায্য করে।
সাইটের পেজ স্পিড একটি গুরুত্বপূর্ণ বিষয় যা ইউজার এক্সপেরিয়েন্স বৃদ্ধি ও র‌্যাঙ্ক পেতে সাহায্য করে।
অল্টার ট্যাগ (Alt Tag) এর ব্যবহার, যাতে ইমেজ ও কনটেন্ট সম্পর্কে বিং সার্চ ইঞ্জিন বুঝতে পারে।
কী কী জিনিস করা যাবে না:

যেসব পেজে অনেক অ্যাড ও অ্যাফিলিয়েট লিংক থাকে, রি-ডাইরেক্ট করে অন্য কোনো ওয়েবসাইটে নিয়ে যায় এবং যেগুলোর কোনো র‌্যাঙ্ক নেই, এতে স্বাভাবিক লিংক বিল্ডিং করা যাবে না।
লিংকের অপব্যবহার করা, লিংক কেনা, লিংক স্কিম ব্যবহার করা যার ফলে ওয়েবসাইট ডি-ইনডেক্স করা হয়।
সুনির্দিষ্ট কিওয়ার্ডের ব্যবহার করে ইউআরএল তৈরি করা, কোনো প্যারামিটার ফলো না করা, ডুপ্লিকেট কনটেন্ট ব্যবহার করা।
ইউআরএলে সুনির্দিষ্ট কিওয়ার্ড দিয়ে বড় করা, বেশি কি-ওয়ার্ড ব্যবহার করা, কোনো সংখ্যা ব্যবহার না করা
কেনা লিংকে জাভাস্কিপ্ট/ফ্ল্যাশ/সিলভার লাইট কনটেন্টের ব্যবহার করা।
ডুপ্লিকেট কনটেন্টের ব্যবহার।
কিওয়ার্ড স্টাফিং।
ক্লোকিং-সার্চ ইঞ্জিনকে একধরনের কনটেন্ট আর ইউজারকে আরেক ধরনের কনটেন্ট দেখানো।

ইউজারদের কথা মাথায় রেখে ওয়েবসাইট করা

এসইওর জন্য সার্চ ইঞ্জিন গাইডলাইন ফলো না করে কোন শর্টকাট পদ্ধতির মাধ্যমে র‍্যঙ্ক পাওয়া সম্ভব নয়। আপনি যদি ইউজার ফ্রেন্ডলি কনটেন্ট ও সাইট তৈরি করেন এবং তা যদি ইউজারদের চাহিদা পূরণ করে, তবেই আপনার সাইটটি দীর্ঘ মেয়াদে সার্চ ইঞ্জিনে র‌্যাঙ্ক করবে।

উদাহরণস্বরূপ: ইউজার তার প্রয়োজনে সার্চ ইঞ্জিনে সার্চ করে থাকে এবং তাদের কাঙ্ক্ষিত রেজাল্টে ক্লিক করে। আর এ ধরনের রেজাল্টে আপনার সাইটিকে রাখতে হলে অবশ্যই ইউজারদের কথা মাথায় রাখতে হবে।

যেমন, আপনি যদি কোনো রেস্টুরেন্টের সাইট করেন, তবে ইউজার কোনো কোনো কিওয়ার্ড দিয়ে সার্চ করতে পারে এবং কি ধরনের তথ্য চাচ্ছে তা মাথায় রাখতে হবে এবং যাতে কোনো ইউজার রেস্টুরেন্ট রিলেটেড কিওয়ার্ড দিয়ে সার্চ দিয়ে আপনার সাইটিকে খুঁজে পায় এবং সঠিক তথ্যটি পায় সে বিষয়ে মনোযোগী হতে হবে।

এসইওর মাধ্যমে আপনি জানতে পারবেন যে, কী কী কিওয়ার্ড দিয়ে সার্চ করছে এবং কোনো কোনো বিষয়ে আপনাকে কনটেন্ট সাইটে দিতে হবে।

কিছু পরিচিত ব্যবহারকারী কমন ইউজারদের চাহিদার ধরন দেখুন:

ইনফরমেশনাল/তথ্যমূলক: তথ্যর জন্য সার্চ করা।

উদাহরণস্বরূপ: “Which mobile phone is best for selfie”

ন্যাভিগেশানাল: নির্দিষ্ট কোনো কিছুর জন্য সার্চ করা।

উদাহরণস্বরূপ: “Prothom Alo”, “Google”, “I Phone”।

ট্রানজেকশনাল/লেনদেনগত: কোনো কিছু কেনার জন্য সার্চ করা।

উদাহরণস্বরূপ: “Online shopping in BD”।

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১,২,৩,৪,৫
« Reply #3 on: February 15, 2020, 09:48:05 AM »
সার্চ ইঞ্জিন কী?
সার্চ ইঞ্জিন হলো ইন্টারনেট ব্যবহারকারীর বিভিন্ন প্রশ্নের উত্তরদাতা মেশিন বা যন্ত্র যা ইন্টারনেটে ছড়িয়ে থাকা বিভিন্ন ধরনের কনটেন্ট খোঁজা, সেগুলোকে বোঝা, প্রাসঙ্গিকতা (রিলেভেন্সি) অনুসারে সাজানো। যখন কোনো ইন্টারনেট ব্যবহারকারী কোনো কিছু খোঁজ করেন (সার্চ) তখন তাঁর সেই সার্চ অনুযায়ী তা ফল বের করে দেখানো সার্চ ইঞ্জিনের কাজ। সার্চ ইঞ্জিনের সকল নিয়ম অনুসরণ করে আপনার কনটেন্টকে সার্চ ইঞ্জিনের রেজাল্ট পেজের প্রথম পাতায় থাকতে হবে। এটা নিশ্চিত করার জন্য এসইও-এর বিকল্প নেই। আপনার কনটেন্ট বা ওয়েবসাইট যদি সার্চ ইঞ্জিন খুঁজে না পায় তবে তা SERP-এ দেখানোর কোনো সম্ভাবনা নেই। বর্তমানে সার্চ ইঞ্জিন রেজাল্ট পেজকে বলা হয় SERPs।

কীভাবে সার্চ ইঞ্জিন কাজ করে?





সার্চ ইঞ্জিনের প্রধানত তিনটি কাজ করে থাকে। যা হলো:

১. ক্রলিং: ইন্টারনেটের সব ধরনের কনটেন্ট এবং কোড ইউআরএলসহ খুঁজে বের করা।
২. ইনডেক্সিং: ক্রলিং প্রসেসের বা ক্রলিং প্রক্রিয়ার পর তা সুনির্দিষ্ট নিয়ম অনুসারে সেগুলো সংরক্ষণ (স্টোরেজ) এবং গুছিয়ে (অর্গানাইজড) ফেলা। একবার ইনডেক্স করা তথ্য পরবর্তীতে ইউজারের সার্চ এবং রিলেভেন্সি অনুযায়ী সার্চ রেজাল্টে দেখাবে।
৩. র‍্যাঙ্কিং: ইউজারের সার্চ অনুযায়ী ইনডেক্সিং করা কনটেন্ট থেকে পর্যায়ক্রমে প্রাসঙ্গিকতা ও সঠিক ফলাফল হিসেবে সর্বোত্তম কনটেন্টগুলো দেখানো যা কিনা তার র‌্যাংক করা।

সার্চ ইঞ্জিন কি ক্রলিং করে?
ক্রলিং হচ্ছে সার্চ ইঞ্জিনের একটি প্রক্রিয়া বা প্রসেস যার মাধ্যমে সার্চ ইঞ্জিন এক বা একাধিক বটের/রোবটের মাধ্যমে (অনেকে এটাকে ‍স্পাইডার বা ক্রলার নামে অভিহিত করেন) ইন্টারনেটের সব ধরনের নতুন ও আপডেটেড কনটেন্ট এবং কোড ইউআরএল সহ খুঁজে বের করে।
কনটেন্ট বিভিন্ন ধরনের হতে পারে। যেমন: ওয়েব পেজ, ইমেজ/ছবি, ভিডিও, অডিও, পিডিএফ ইত্যাদি। কিন্তু মনে রাখতে হবে যে, এসব কনটেন্ট ইন্টারনেটে লিংকের মাধ্যমে খুঁজে পাওয়া যায়।
গুগল বট ক্রলিং শুরু করে কিছু ওয়েব পেজ ফেচিং-এর মাধ্যমে, তারপর ওই ওয়েব পেজের লিংক ধরে অন্যান্য পেজ ক্রলিং করে। এভাবে লিংকের মাধ্যমে নতুন নতুন কনটেন্ট খুঁজে পায় এবং তা ইনডেক্স-এ ‍যুক্ত করে, যাকে ক্যাফিন বলা হয়। যেখানে বিশাল একটি ডেটাবেইসে ক্রলিং করা তথ্যগুলো জমা করে রাখা হয় এবং যখন কোনো ইউজার সার্চ করে তখন তাঁর সার্চ অনুযায়ী তথ্য মিলিয়ে দেখা হয়।

সার্চ ইঞ্জিন ইনডেক্সিং কী?
ক্রলিং প্রক্রিয়ার পর সার্চ ইঞ্জিন তা সুনির্দিষ্ট নিয়ম অনুসারে তথ্যগুলোকে একটি বিশাল ডেটাবেইসে সংরক্ষণ এবং অর্গানাইজড করে থাকে। পরবর্তীতে যখন কোনো ইউজার সার্চ করে, তখন সার্চ ইঞ্জিন সার্চ এবং রিলেভেন্সি অনুযায়ী ইউজারকে সার্চ রেজাল্টে সেটা দেখায়।

সার্চ ইঞ্জিন র‌্যাঙ্কিং
যখন একজন ইউজার সার্চ করে, সার্চ ইঞ্জিন তখন তার ইনডেক্সকৃত বিশাল ডেটাবেইস/তথ্যভান্ডার থেকে ইউজারের সার্চ অনুযায়ী সবচেয়ে ভালো তথ্যগুলো যা সার্চের সঙ্গে মিলে তা দেখায়। এভাবে সার্চ রেজাল্ট দেখানোর পদ্ধতিকে র‌্যাঙ্কিং বলা হয়। সার্চ ইঞ্জিনের অ্যালগরিদম মেনে কাজ করে থাকে র‌্যাংকিং। আপনি সার্চ করার পর যে ওয়েব সাইটটি প্রথম দেখেন তা ইউজারের সমস্যার সুনির্দিষ্ট সমাধান দিতে পারবে বলে সার্চ ইঞ্জিন বিশ্বাস করে।[/size]

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১,২,৩,৪,৫
« Reply #4 on: February 15, 2020, 09:48:46 AM »
ক্রলিং: আপনার পেজগুলো কি সার্চ ইঞ্জিন খুঁজে পাবে?

আপনি ইতিমধ্যে জেনেছেন যে, আপনার সাইটটি SERP-এ দেখানোর পূর্বশর্ত হলো সাইটটিকে অবশ্যই সার্চইঞ্জিন ক্রল ও ইনডেক্স করতে হবে। আপনার যদি নিজস্ব কোন ওয়েবসাইট থাকে, তবে চেক করে দেখুন যে কতগুলো পেজ ইনডেক্স হয়েছে। তাতে আপনি জানতে পারবেন আপনার ওয়েবসাইটকে গুগল ক্রল ও ইনডেক্স করতে পারছে কি না।

সাইটের ইনডেক্স চেক করার একটি পদ্ধতি হল, “site: yourdomain.com” আপনি গুগলের সার্চ বারে ‘site:yourdomain.com’ লিখে সার্চ করলে গুগল সুনির্দিষ্টভাবে আপনাকে সাইটের ইনডেক্সকৃত পেজের সংখ্যা এবং পেজগুলা দেখাবে।

নিচের ছবিতে দেখুন।




ওপরের ছবিটি একটি ইনডেক্সকৃত পেজের সংখ্যা চেক করার পদ্ধতি

যদিও গুগল যে সংখ্যাটা দেখায় তা প্রকৃত বা সঠিক নয়, তবুও এর মাধ্যমে আপনি জানতে পারবেন, কি পরিমাণ পেজ ইনডেক্স হচ্ছে এবং SERP-এ তা কেমন দেখায়।

আপনার সাইটটি যদি সার্চ ইঞ্জিনের কোথাও খুঁজে না পাওয়া যায়, তবে তার কিছু সম্ভাব্য কারণ থাকতে পারে। যথা:

আপনার সাইটটি যদি একেবারে নতুন হয় এবং যা এখনো ক্রল হয়নি।
যদি আপনার সাইটের কোনো ব্যাকলিঙ্ক না থাকে।
আপনার সাইটের মেনু/নেভিগেশন অনেক অগোছালো যার ফলে সার্চইঞ্জিন বট ক্রল করার জন্য খুঁজে পাচ্ছে না।
আপনার সাইটের মধ্যে হয়তো এমন কিছু কোড দেওয়া আছে, যা সার্চইঞ্জিন বটকে ক্রল করতে বাধা দিচ্ছে।
আপনার সাইটটি হয়তো গুগল স্প্যাম সাইট হিসেবে পেনাল্টি দিয়েছে।

রোবটস ডট টিএক্সটি ফাইল
রোবটস ডট টিএক্সটি ফাইলটি ওয়েব সাইটের রুট ডিরেক্টরিতে থাকে (ex. yourdomain.com/robots.txt) এবং যার মাধ্যমে সার্চ ইঞ্জিনকে নির্দেশ করা হয় যে, সাইটের কোন কোন অংশ ইনডেক্স করা হবে এবং কোনগুলো নয়। এর পাশাপাশি কোন গতিতে সাইটটি ইনডেক্স হবে তার নির্দেশনাও দেওয়া থাকে।

গুগল বট কীভাবে robots.txt ফাইলকে অনুসরণ করে ?
যদি গুগল বট কোন সাইটের জন্য রোবটস ডট টিএক্সটি ফাইল খুঁজে না পায়, তবে এটি কোনো নির্দেশ ছাড়াই সাইটটিকে ক্রল করা শুরু করে।

যদি গুগল বট কোন সাইটের জন্য রোবটস ডট টিএক্সটি ফাইল খুঁজে পায়, তবে এটি সেখানে দেওয়া নির্দেশ মেনে চলবে এবং সাইটটিকে ক্রল করা শুরু করে।
যদি কোনো সাইটের রোবটস ডট টিএক্সটি ফাইলটি অ্যাক্সেস করার সময় কোনো ত্রুটির মুখোমুখি হয় এবং তা নির্ধারণ করতে না পারে, তবে এটি সাইটটিকে ক্রল করবে না।

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১,২,৩,৪,৫,৬
« Reply #5 on: February 29, 2020, 09:10:16 AM »
‘এসইও শিখুন’ নামে ধারাবাহিকের আজ ষষ্ঠ পর্বে থাকছে কীভাবে গুগল সার্চ কনসোলের মাধ্যমে ইউআরএল নির্ধারণ করবেন? আপনার সব গুরুত্বপূর্ণ কনটেন্ট কি ক্রলার খুঁজে পায়? কোন কোন কারণে সার্চইঞ্জিন গুরুত্বপূর্ণ কনটেন্ট খুঁজে পায় না? 4xx কোড ও 5xx কোড সম্পর্কে।

গুগল সার্চ কনসোলের মাধ্যমে ইউআরএল নির্ধারণ করা

কিছু সাইট (বেশির ভাগ ক্ষেত্রে ই-কমার্স সাইটগুলো) একই কনটেন্টকে কিছু ইউআরএল প্যারামিটার ব্যবহার করে বিভিন্ন ইউআরএলকে বিভিন্ন ক্যাটাগরিতে দেখায়। আপনি যদি কোনো ই-কমার্স সাইটে শপিং করে থাকেন তবে দেখতে পাবেন যে তারা ফিল্টার করার জন্য প্রাইজ, ব্র্যান্ড, কালার, সাইজ ইত্যাদি প্যারামিটার ব্যবহার করে থাকে এবং প্রতিবারই যখন আপনি কোনো প্যারামিটার ধরে পরিবর্তন করবেন, তখনই ইউআরএল পরিবর্তন হবে।

https://www.example.com/products/women/dresses/green.html

https://www.example.com/products/women?category=dresses&color=green

https://example.com/shopindex.php?product_id=32&highlight=green+dress
&cat_id=1&sessionid=123$affid=43

এখন একটু ভাবুন তো, গুগল কোন ইউআরএল গুলোকে ক্রল করবে এবং কোন ইউআরএলকে ইনডেক্স করে সার্চে দেখাবে? গুগল এখানে নিজ থেকে সিদ্ধান্ত নেয় যে কোন ইউআরএলকে সার্চে দেখাবে। কিন্তু আপনি এখানে গুগল সার্চ কনসোলে ইউআরএল প্যারামিটার ফিচার দিয়ে বলে দিতে পারবেন যে কোন নির্দিষ্ট ইউআরএলটিকে সার্চে দেখাবে।

আপনার সব গুরুত্বপূর্ণ কনটেন্ট কি ক্রলার খুজেঁ পায়?

কীভাবে সার্চইঞ্জিনকে গুরুত্বহীন কনটেন্ট থেকে বিরত রাখতে হবে, তার কিছু পদ্ধতি সম্পর্কে জেনেছেন। এখন শিখুন কীভাবে অপটিমাইজড করলে গুগল বট আপনার গুরুত্বপূর্ণ পেজটিকে সহজে খুঁজে পাবে।

মাঝেমধ্যে সার্চইঞ্জিন নিজে নিজে আপনার সাইটের কিছু পেজ ক্রলিংয়ের মাধ্যমে খুঁজে পায়। কিন্তু অবশিষ্ট পেজগুলো বা কোনো নির্দিষ্ট অংশ কোনো কারণে খুঁজে নাও পেতে পারে। আপনাকে অবশ্যই নিশ্চিত হতে হবে যে আপনার ওয়েবসাইটের শুধু হোমপেজ ইনডেক্স হলে হবে না, যাতে সব পেজ ইনডেক্স হয়, যেগুলো আপনি চাচ্ছেন।

কী কী কারণে আপনার কনটেন্টটি সার্চইঞ্জিন খুঁজে পায় না, তার কিছু সম্ভাব্য বিষয় নিচে দেওয়া হলো:

আপনার কনটেন্ট যদি কোনো লগইন ফর্মের ভেতরে থাকে।
আপনি যদি কনটেন্টের জন্য কোনো অনুসন্ধান ফর্ম বা বক্স ব্যবহার করেন।
টেক্সট কনটেন্ট যদি নন-টেক্সট কনটেন্টের মধ্যে লুকানো থাকে।
সার্চইঞ্জিন যদি আপনার সাইটের নেভিগেশন অনুসরণ করতে না পারে।
আপনার যদি একটি ক্লিয়ার ইনফরমেশন স্ট্রাকচার না থাকে।
আপনি যদি সাইট ম্যাপ ব্যবহার না করেন।
ক্রলার যদি কোনো ধরনের ত্রুটি বা ভুল পায়, যখন এটি আপনার URL-এর এক্সেস নেওয়ার চেষ্টা করে।
এসইও করার সময় যেসব এরর কোড সবচেয়ে বেশি জনপ্রিয়, তার মধ্যে 4xx ও 5xx কোড অন্যতম।

4xx কোড: যখন সার্চ ইঞ্জিন ক্রলার আপনার ওয়েবসাইটের কনটেন্ট এক্সেস করতে পারে না আপনার ওয়েবসাইটের ইন্টারনাল কোনো সমস্যার কারণে, তখন তাকে 4xx errors বলে।

সবচেয়ে পরিচিত 4xx errors হলো ‘404 - Page not found’। এটা হতে পারে URL টাইপে ভুলের কারণে, কোনো ওয়েবপেজ ডিলিট করা, ব্রোকেন রিডাইরেক্ট ইত্যাদি।

5xx কোড: যখন সার্চইঞ্জিন ক্রলার সার্ভারের কোনো সমস্যার কারণে ওয়েবসাইটের কনটেন্ট এক্সেস করতে পারে না, তখন তাকে 5xx error বলে।

5xx error কে সার্ভারের সমস্যা হিসেবে চিহ্নিত করা হয়, যার অর্থ হলো যখন কোনো ইউজার বা সার্চইঞ্জিন ক্রলার কোনো কনটেন্ট পেজের এক্সেস না পায়।

Source: https://www.prothomalo.com/technology/article/1642170/%E0%A6%8F%E0%A6%B8%E0%A6%87%E0%A6%93-%E0%A6%B6%E0%A6%BF%E0%A6%96%E0%A7%81%E0%A6%A8-%E0%A6%B7%E0%A6%B7%E0%A7%8D%E0%A6%A0-%E0%A6%AA%E0%A6%B0%E0%A7%8D%E0%A6%AC

Offline Sultan Mahmud Sujon

  • Administrator
  • Hero Member
  • *****
  • Posts: 2667
  • Sultan Mahmud Sujon, Sr. Admin Officer
    • View Profile
    • Helping You Office Operation & Automation Management
Re: এসইও শিখুন: পর্ব ১,২,৩,৪,৫
« Reply #6 on: March 07, 2020, 09:28:24 AM »
এসইও শিখুন: রোবট ডটটেক্সট ফাইলের ব্যবহার

এসইও শিখুন’ ধারাবাহিকের আজ সপ্তম পর্বে থাকছে কীভাবে সার্চইঞ্জিনকে রোবট ডট টেক্সট ফাইল ও রোবট মেটা ট্যাগের মাধ্যমে আপনার ‍ওয়েবসাইটের কোন কোন পেজ ইনডেক্স করবে এবং কোন কোন পেজ ইনডেক্স করবে না, তার নির্দেশনা।

ওয়েবসাইটটি ইনডেক্স করতে সার্চ ইঞ্জিনকে নির্দেশ দিতে পারেন। আপনি সার্চ ইঞ্জিনকে Robots.txt File, Robots Meta Tags এর মাধ্যমে HTML পেজের সেকশনে বা X-Robots-Tag দিয়ে HTTP header-এ ব্যবহার করতে পারেন।

রোবট ডট টেক্সট ফাইল
একটি ওয়েবসাইটকে ক্রলার করার নির্দেশনাসহ robots.txt ফাইলটি সাইটের রুট ডিরেক্টরিতে রাখা হয়। সার্চইঞ্জিন বট robots.txt ফাইল ফলো করে ক্রল ও ফেচ করে থাকে। কিন্তু robots.txt বটকে বলে দেয় কোন পেজগুলা ক্রল করবে আর কোন পেজগুলা ক্রল করবে না। যদি robots.txt ফাইলটি না থাকে, তবে সার্চইঞ্জিন বট মনে করে আপনি আপনার সাইটের জন্য কোনো নির্দেশনা দেননি। তাই সে পুরো সাইটটি ক্রল করে বা কিছু কিছু পেজ ক্রল করা বাদ থাকে।

একটা রোবট ডট টেক্সট ফাইল প্রাথমিকভাবে ২ ভাগে বিভক্ত। যথা:

১) User-agent: [user-agent name]
২) Disallow: /[URL string not to be crawled]

মনে রাখতে হবে যে একটা robot.txt ফাইল সব সময় নোটপ্যাড টেক্সট ফরম্যাটে থাকবে।

রোবট ডট টেক্সট ফাইলের একটি উদাহরণ নিচে দেওয়া হলো:

User-agent: *
Disallow: wp-admin
Disallow: wp-admin/includes
Disallow: wp-content/plugins
Disallow: wp-content/cache
Disallow: wp-content/theme

রোবট মেটা ট্যাগ
রোবট মেটা ট্যাগ সেকশনে HTML ওয়েবপেজে ব্যবহৃত হয়। এটা কোন নির্দিষ্ট বা সকল সার্চ ইঞ্জিনের জন্য হতে পারে। আমরা কিছু কমন মেটা ট্যাগ নিয়ে নিয়ে আলোচনা করব, যা কিনা সচরাচর ব্যবহার করা হয়।

ইনডেক্স/নোইনডেক্স: ইনডেক্স/নোইনডেক্স দিয়ে সার্চ ইঞ্জিনকে বলা হয় কোন পেজকে ক্রল করা হবে, কী হবে না। আপনি যদি noindex ট্যাগ ব্যবহার করেন তবে সার্চ ইঞ্জিন পেজটাকে ক্রল করা থেকে বিরত থাকবে।

স্বাভাবিকভাবে সার্চ ইঞ্জিন সকল পেজকে ক্রল করে তাই আপনি index ট্যাগ ব্যবহার না করলেও হবে আর যদি করেন তবে তা হবে অপ্রয়োজনীয়।

ফলো/নোফলো: ফলো/নোফলো ট্যাগ দিয়ে সার্চ ইঞ্জিনকে বলা হয় যে কোন পেজকে ফলো বা নোফলো করবে। follow ট্যাগ দিলে সার্চ ইঞ্জিন বট ওই লিংককে ফলো করে অর্থাৎ,লিংক জুস পাস করে আর nofollow ট্যাগ দিলে লিঙ্ক জুস পাস করে না। স্বাভাবিকভাবে সার্চইঞ্জিন সব পেজকে ফলো করে তাই আপনি follow ট্যাগ ব্যবহার না করলেও হবে আর যদি করেন, তবে তা হবে অপ্রয়োজনীয়।

নো আর্কাইভ: নো আর্কাইভ ট্যাগ দিয়ে সার্চ ইঞ্জিনকে বলা হয় যে কোন পেজের যেন ক্যাশ ভার্সন কপি করে না রাখে। স্বাভাবিকভাবে সার্চ ইঞ্জিন কোন পেজ যখন ক্রল এবং ইনডেক্স করে তখন এক কপি ক্যাশ ভার্সন সংরক্ষণ করে যাতে ইউজাররা সার্চ করে রেজাল্ট পেজ থেকে তার পূর্বের ভার্সন দেখতে পায়।

এখানে noindex এবং nofollow ট্যাগের একটি উদাহরণ দেওয়া হলো:

<!DOCTYPE html>

<html>

<head>

<meta name="robots" content="noindex, nofollow" />

</head>

<body>...</body>

</html>

আবার, আপনি যদি কোন নির্দিষ্ট পেজ বা লিংকের জন্য সার্চইঞ্জিন বটকে nofollow করতে চান তবে নিচের নির্দেশনা অনুসরণ করুন।

<a href="signin.php" rel="nofollow">sign in[/url]

এক্স-রোবট-ট্যাগ
এক্স-রোবট-ট্যাগ URL এর HTTP হেডারে ব্যবহার করা হয়। এটা মেটা ট্যাগগুলোর চেয়ে আরও নমনীয়তা এবং কার্যকারিতা প্রদান করে। আপনি যদি সার্চইঞ্জিনগুলোকে ব্লক করতে চান তবে আপনি প্রচলিত HTML ট্যাগগুলো ব্যবহার করতে পারেন। আর আপনি যদি কোন non-HTML ফাইল বা ফোল্ডার ব্লক করতে চান তবে এক্স-রোবট-ট্যাগ ব্যবহার করুন।

উদাহরণস্বরূপ: মনে করুন যে, আপনি কোন ফাইল বা ফোল্ডার (example.com/no-bake/old-recipes-to-noindex) ব্লক করতে চান।

<Files ~ “/?no-bake/.*”>

 Header set X-Robots-Tag “noindex, nofollow”

</Files>

অথবা কোন নির্দিষ্ট পিডিএফ ফাইল,

<Files ~ “.pdf$”>

 Header set X-Robots-Tag “noindex, nofollow”

</Files>