Advertisement
Advertisement
ChatGPT

ভুলেও ‘প্লিজ’ বলবেন না ChatGPT-কে! জানেন কী ক্ষতি হতে পারে?

ব্যাপারটা কী?

Stop saying Please to ChatGPT
Published by: Tiyasha Sarkar
  • Posted:June 29, 2025 7:13 pm
  • Updated:June 29, 2025 7:13 pm  

সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: ধরুন পছন্দের অভিনেতার সঙ্গে ছবি বানাবেন। কিংবা কঠিন কোনও প্রশ্নের উত্তর খুঁজছেন, এখন হাতের কাছে রয়েছে মোক্ষম অস্ত্র AI চ্যাটবট। কেউ কেউ তো আবার খোশগল্পও করেন। কারণ, যা কিছু লিখলেই উত্তর মিলে যায় সঙ্গে সঙ্গে। অনেকেই AI চ্যাটবটের সঙ্গে কথপোকথনের ক্ষেত্রেও অত্যন্ত বিনয়ী। যে কোনও কমান্ডে জুড়ে দেন ‘প্লিজ’ বা ‘ক্যান ইউ’। আবার প্রয়োজন মিটলে ধন্যবাদ জানাতেও ভোলেন না। কিন্তু জানেন কি এই ধরনের শব্দে হয় ভয়ংকর ক্ষতি?

ব্যাপারটা ঠিক কী? ‘প্লিজ’, ‘ক্যান ইউ’, ‘থ্যাঙ্ক ইউ’, এই ধরনের শব্দগুলো মানুষের জন্য। সৌজন্য প্রকাশের জন্য মূলত এই ধরণের শব্দ ব্যবহার করা হয়। ChatGPT, Gemini AI, বা কোনও AI চ্যাটবটই এগুলোর সঙ্গে অভ্যস্ত নয়। চ্যাটবট শুধু নির্দেশ বোঝে এবং তা কার্যকর করতে পারে। ফলে এই ধরনের সৌজন্যমূলক শব্দগুলোর অর্থ বুঝতে যে পরিমাণ এনার্জি খরচ করতে হয় তা সংস্থাকে জন্য বিপুল অঙ্কের আর্থিক ক্ষতির মুখোমুখি করে। তাই এই ধরণের সৌজন্যমূলক শব্দ ব্যবহার না করাই ভালো। জানা যাচ্ছে, পরবর্তীতে চ্যাটবটগুলোর তরফেই এই শব্দগুলোকে ব্লক করা হতে পারে। অর্থাৎ শুধু প্রয়োজনীয় নির্দেশ দেবেন অল্প শব্দে। পেয়ে যাবেন জবাব।

উল্লেখ্য, গত ২০২২ সালের নভেম্বরে আত্মপ্রকাশ করেছিল চ্যাটজিপিটি। প্রথম থেকেই চমকে দিয়েছিল ওপেনএআই নির্মিত চ্যাটবটটি। কিন্তু কেউ ভাবতে পারেনি এত দ্রুত মানুষের এত কাছে পৌঁছে যাবে সে! ওয়াকিবহাল মহলের একাংশ বলতে থাকে, অচিরেই এই চ্যাটবট চাকরি কাড়বে বহু মানুষের। বলাই যায়, একটা নেতিবাচক ভাবমূর্তির কারণেই কার্যত ‘খলনায়ক’ হয়ে উঠেছিল চ্যাটজিপিটি। কিন্তু সময়ের সঙ্গে সঙ্গে সে দ্রুতই যেন মানুষের মনের কাছাকাছি পৌঁছতে শুরু করেছে।

খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ

Advertisement