Outsourcing > SEO (Search Engine Optimization)

এসইও শিখুন: পর্ব ১,২,৩,৪,৫

<< < (2/2)

Sultan Mahmud Sujon:
‘এসইও শিখুন’ নামে ধারাবাহিকের আজ ষষ্ঠ পর্বে থাকছে কীভাবে গুগল সার্চ কনসোলের মাধ্যমে ইউআরএল নির্ধারণ করবেন? আপনার সব গুরুত্বপূর্ণ কনটেন্ট কি ক্রলার খুঁজে পায়? কোন কোন কারণে সার্চইঞ্জিন গুরুত্বপূর্ণ কনটেন্ট খুঁজে পায় না? 4xx কোড ও 5xx কোড সম্পর্কে।

গুগল সার্চ কনসোলের মাধ্যমে ইউআরএল নির্ধারণ করা

কিছু সাইট (বেশির ভাগ ক্ষেত্রে ই-কমার্স সাইটগুলো) একই কনটেন্টকে কিছু ইউআরএল প্যারামিটার ব্যবহার করে বিভিন্ন ইউআরএলকে বিভিন্ন ক্যাটাগরিতে দেখায়। আপনি যদি কোনো ই-কমার্স সাইটে শপিং করে থাকেন তবে দেখতে পাবেন যে তারা ফিল্টার করার জন্য প্রাইজ, ব্র্যান্ড, কালার, সাইজ ইত্যাদি প্যারামিটার ব্যবহার করে থাকে এবং প্রতিবারই যখন আপনি কোনো প্যারামিটার ধরে পরিবর্তন করবেন, তখনই ইউআরএল পরিবর্তন হবে।

https://www.example.com/products/women/dresses/green.html

https://www.example.com/products/women?category=dresses&color=green

https://example.com/shopindex.php?product_id=32&highlight=green+dress
&cat_id=1&sessionid=123$affid=43

এখন একটু ভাবুন তো, গুগল কোন ইউআরএল গুলোকে ক্রল করবে এবং কোন ইউআরএলকে ইনডেক্স করে সার্চে দেখাবে? গুগল এখানে নিজ থেকে সিদ্ধান্ত নেয় যে কোন ইউআরএলকে সার্চে দেখাবে। কিন্তু আপনি এখানে গুগল সার্চ কনসোলে ইউআরএল প্যারামিটার ফিচার দিয়ে বলে দিতে পারবেন যে কোন নির্দিষ্ট ইউআরএলটিকে সার্চে দেখাবে।

আপনার সব গুরুত্বপূর্ণ কনটেন্ট কি ক্রলার খুজেঁ পায়?

কীভাবে সার্চইঞ্জিনকে গুরুত্বহীন কনটেন্ট থেকে বিরত রাখতে হবে, তার কিছু পদ্ধতি সম্পর্কে জেনেছেন। এখন শিখুন কীভাবে অপটিমাইজড করলে গুগল বট আপনার গুরুত্বপূর্ণ পেজটিকে সহজে খুঁজে পাবে।

মাঝেমধ্যে সার্চইঞ্জিন নিজে নিজে আপনার সাইটের কিছু পেজ ক্রলিংয়ের মাধ্যমে খুঁজে পায়। কিন্তু অবশিষ্ট পেজগুলো বা কোনো নির্দিষ্ট অংশ কোনো কারণে খুঁজে নাও পেতে পারে। আপনাকে অবশ্যই নিশ্চিত হতে হবে যে আপনার ওয়েবসাইটের শুধু হোমপেজ ইনডেক্স হলে হবে না, যাতে সব পেজ ইনডেক্স হয়, যেগুলো আপনি চাচ্ছেন।

কী কী কারণে আপনার কনটেন্টটি সার্চইঞ্জিন খুঁজে পায় না, তার কিছু সম্ভাব্য বিষয় নিচে দেওয়া হলো:

আপনার কনটেন্ট যদি কোনো লগইন ফর্মের ভেতরে থাকে।
আপনি যদি কনটেন্টের জন্য কোনো অনুসন্ধান ফর্ম বা বক্স ব্যবহার করেন।
টেক্সট কনটেন্ট যদি নন-টেক্সট কনটেন্টের মধ্যে লুকানো থাকে।
সার্চইঞ্জিন যদি আপনার সাইটের নেভিগেশন অনুসরণ করতে না পারে।
আপনার যদি একটি ক্লিয়ার ইনফরমেশন স্ট্রাকচার না থাকে।
আপনি যদি সাইট ম্যাপ ব্যবহার না করেন।
ক্রলার যদি কোনো ধরনের ত্রুটি বা ভুল পায়, যখন এটি আপনার URL-এর এক্সেস নেওয়ার চেষ্টা করে।
এসইও করার সময় যেসব এরর কোড সবচেয়ে বেশি জনপ্রিয়, তার মধ্যে 4xx ও 5xx কোড অন্যতম।

4xx কোড: যখন সার্চ ইঞ্জিন ক্রলার আপনার ওয়েবসাইটের কনটেন্ট এক্সেস করতে পারে না আপনার ওয়েবসাইটের ইন্টারনাল কোনো সমস্যার কারণে, তখন তাকে 4xx errors বলে।

সবচেয়ে পরিচিত 4xx errors হলো ‘404 - Page not found’। এটা হতে পারে URL টাইপে ভুলের কারণে, কোনো ওয়েবপেজ ডিলিট করা, ব্রোকেন রিডাইরেক্ট ইত্যাদি।

5xx কোড: যখন সার্চইঞ্জিন ক্রলার সার্ভারের কোনো সমস্যার কারণে ওয়েবসাইটের কনটেন্ট এক্সেস করতে পারে না, তখন তাকে 5xx error বলে।

5xx error কে সার্ভারের সমস্যা হিসেবে চিহ্নিত করা হয়, যার অর্থ হলো যখন কোনো ইউজার বা সার্চইঞ্জিন ক্রলার কোনো কনটেন্ট পেজের এক্সেস না পায়।

Source: https://www.prothomalo.com/technology/article/1642170/%E0%A6%8F%E0%A6%B8%E0%A6%87%E0%A6%93-%E0%A6%B6%E0%A6%BF%E0%A6%96%E0%A7%81%E0%A6%A8-%E0%A6%B7%E0%A6%B7%E0%A7%8D%E0%A6%A0-%E0%A6%AA%E0%A6%B0%E0%A7%8D%E0%A6%AC

Sultan Mahmud Sujon:
এসইও শিখুন: রোবট ডটটেক্সট ফাইলের ব্যবহার

এসইও শিখুন’ ধারাবাহিকের আজ সপ্তম পর্বে থাকছে কীভাবে সার্চইঞ্জিনকে রোবট ডট টেক্সট ফাইল ও রোবট মেটা ট্যাগের মাধ্যমে আপনার ‍ওয়েবসাইটের কোন কোন পেজ ইনডেক্স করবে এবং কোন কোন পেজ ইনডেক্স করবে না, তার নির্দেশনা।

ওয়েবসাইটটি ইনডেক্স করতে সার্চ ইঞ্জিনকে নির্দেশ দিতে পারেন। আপনি সার্চ ইঞ্জিনকে Robots.txt File, Robots Meta Tags এর মাধ্যমে HTML পেজের সেকশনে বা X-Robots-Tag দিয়ে HTTP header-এ ব্যবহার করতে পারেন।

রোবট ডট টেক্সট ফাইল
একটি ওয়েবসাইটকে ক্রলার করার নির্দেশনাসহ robots.txt ফাইলটি সাইটের রুট ডিরেক্টরিতে রাখা হয়। সার্চইঞ্জিন বট robots.txt ফাইল ফলো করে ক্রল ও ফেচ করে থাকে। কিন্তু robots.txt বটকে বলে দেয় কোন পেজগুলা ক্রল করবে আর কোন পেজগুলা ক্রল করবে না। যদি robots.txt ফাইলটি না থাকে, তবে সার্চইঞ্জিন বট মনে করে আপনি আপনার সাইটের জন্য কোনো নির্দেশনা দেননি। তাই সে পুরো সাইটটি ক্রল করে বা কিছু কিছু পেজ ক্রল করা বাদ থাকে।

একটা রোবট ডট টেক্সট ফাইল প্রাথমিকভাবে ২ ভাগে বিভক্ত। যথা:

১) User-agent: [user-agent name]
২) Disallow: /[URL string not to be crawled]

মনে রাখতে হবে যে একটা robot.txt ফাইল সব সময় নোটপ্যাড টেক্সট ফরম্যাটে থাকবে।

রোবট ডট টেক্সট ফাইলের একটি উদাহরণ নিচে দেওয়া হলো:

User-agent: *
Disallow: wp-admin
Disallow: wp-admin/includes
Disallow: wp-content/plugins
Disallow: wp-content/cache
Disallow: wp-content/theme

রোবট মেটা ট্যাগ
রোবট মেটা ট্যাগ সেকশনে HTML ওয়েবপেজে ব্যবহৃত হয়। এটা কোন নির্দিষ্ট বা সকল সার্চ ইঞ্জিনের জন্য হতে পারে। আমরা কিছু কমন মেটা ট্যাগ নিয়ে নিয়ে আলোচনা করব, যা কিনা সচরাচর ব্যবহার করা হয়।

ইনডেক্স/নোইনডেক্স: ইনডেক্স/নোইনডেক্স দিয়ে সার্চ ইঞ্জিনকে বলা হয় কোন পেজকে ক্রল করা হবে, কী হবে না। আপনি যদি noindex ট্যাগ ব্যবহার করেন তবে সার্চ ইঞ্জিন পেজটাকে ক্রল করা থেকে বিরত থাকবে।

স্বাভাবিকভাবে সার্চ ইঞ্জিন সকল পেজকে ক্রল করে তাই আপনি index ট্যাগ ব্যবহার না করলেও হবে আর যদি করেন তবে তা হবে অপ্রয়োজনীয়।

ফলো/নোফলো: ফলো/নোফলো ট্যাগ দিয়ে সার্চ ইঞ্জিনকে বলা হয় যে কোন পেজকে ফলো বা নোফলো করবে। follow ট্যাগ দিলে সার্চ ইঞ্জিন বট ওই লিংককে ফলো করে অর্থাৎ,লিংক জুস পাস করে আর nofollow ট্যাগ দিলে লিঙ্ক জুস পাস করে না। স্বাভাবিকভাবে সার্চইঞ্জিন সব পেজকে ফলো করে তাই আপনি follow ট্যাগ ব্যবহার না করলেও হবে আর যদি করেন, তবে তা হবে অপ্রয়োজনীয়।

নো আর্কাইভ: নো আর্কাইভ ট্যাগ দিয়ে সার্চ ইঞ্জিনকে বলা হয় যে কোন পেজের যেন ক্যাশ ভার্সন কপি করে না রাখে। স্বাভাবিকভাবে সার্চ ইঞ্জিন কোন পেজ যখন ক্রল এবং ইনডেক্স করে তখন এক কপি ক্যাশ ভার্সন সংরক্ষণ করে যাতে ইউজাররা সার্চ করে রেজাল্ট পেজ থেকে তার পূর্বের ভার্সন দেখতে পায়।

এখানে noindex এবং nofollow ট্যাগের একটি উদাহরণ দেওয়া হলো:

<!DOCTYPE html>

<html>

<head>

<meta name="robots" content="noindex, nofollow" />

</head>

<body>...</body>

</html>

আবার, আপনি যদি কোন নির্দিষ্ট পেজ বা লিংকের জন্য সার্চইঞ্জিন বটকে nofollow করতে চান তবে নিচের নির্দেশনা অনুসরণ করুন।

<a href="signin.php" rel="nofollow">sign in[/url]

এক্স-রোবট-ট্যাগ
এক্স-রোবট-ট্যাগ URL এর HTTP হেডারে ব্যবহার করা হয়। এটা মেটা ট্যাগগুলোর চেয়ে আরও নমনীয়তা এবং কার্যকারিতা প্রদান করে। আপনি যদি সার্চইঞ্জিনগুলোকে ব্লক করতে চান তবে আপনি প্রচলিত HTML ট্যাগগুলো ব্যবহার করতে পারেন। আর আপনি যদি কোন non-HTML ফাইল বা ফোল্ডার ব্লক করতে চান তবে এক্স-রোবট-ট্যাগ ব্যবহার করুন।

উদাহরণস্বরূপ: মনে করুন যে, আপনি কোন ফাইল বা ফোল্ডার (example.com/no-bake/old-recipes-to-noindex) ব্লক করতে চান।

<Files ~ “/?no-bake/.*”>

 Header set X-Robots-Tag “noindex, nofollow”

</Files>

অথবা কোন নির্দিষ্ট পিডিএফ ফাইল,

<Files ~ “.pdf$”>

 Header set X-Robots-Tag “noindex, nofollow”

</Files>

Navigation

[0] Message Index

[*] Previous page

Go to full version