সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: ধরুন পছন্দের অভিনেতার সঙ্গে ছবি বানাবেন। কিংবা কঠিন কোনও প্রশ্নের উত্তর খুঁজছেন, এখন হাতের কাছে রয়েছে মোক্ষম অস্ত্র AI চ্যাটবট। কেউ কেউ তো আবার খোশগল্পও করেন। কারণ, যা কিছু লিখলেই উত্তর মিলে যায় সঙ্গে সঙ্গে। অনেকেই AI চ্যাটবটের সঙ্গে কথপোকথনের ক্ষেত্রেও অত্যন্ত বিনয়ী। যে কোনও কমান্ডে জুড়ে দেন ‘প্লিজ’ বা ‘ক্যান ইউ’। আবার প্রয়োজন মিটলে ধন্যবাদ জানাতেও ভোলেন না। কিন্তু জানেন কি এই ধরনের শব্দে হয় ভয়ংকর ক্ষতি?
ব্যাপারটা ঠিক কী? ‘প্লিজ’, ‘ক্যান ইউ’, ‘থ্যাঙ্ক ইউ’, এই ধরনের শব্দগুলো মানুষের জন্য। সৌজন্য প্রকাশের জন্য মূলত এই ধরণের শব্দ ব্যবহার করা হয়। ChatGPT, Gemini AI, বা কোনও AI চ্যাটবটই এগুলোর সঙ্গে অভ্যস্ত নয়। চ্যাটবট শুধু নির্দেশ বোঝে এবং তা কার্যকর করতে পারে। ফলে এই ধরনের সৌজন্যমূলক শব্দগুলোর অর্থ বুঝতে যে পরিমাণ এনার্জি খরচ করতে হয় তা সংস্থাকে জন্য বিপুল অঙ্কের আর্থিক ক্ষতির মুখোমুখি করে। তাই এই ধরণের সৌজন্যমূলক শব্দ ব্যবহার না করাই ভালো। জানা যাচ্ছে, পরবর্তীতে চ্যাটবটগুলোর তরফেই এই শব্দগুলোকে ব্লক করা হতে পারে। অর্থাৎ শুধু প্রয়োজনীয় নির্দেশ দেবেন অল্প শব্দে। পেয়ে যাবেন জবাব।
উল্লেখ্য, গত ২০২২ সালের নভেম্বরে আত্মপ্রকাশ করেছিল চ্যাটজিপিটি। প্রথম থেকেই চমকে দিয়েছিল ওপেনএআই নির্মিত চ্যাটবটটি। কিন্তু কেউ ভাবতে পারেনি এত দ্রুত মানুষের এত কাছে পৌঁছে যাবে সে! ওয়াকিবহাল মহলের একাংশ বলতে থাকে, অচিরেই এই চ্যাটবট চাকরি কাড়বে বহু মানুষের। বলাই যায়, একটা নেতিবাচক ভাবমূর্তির কারণেই কার্যত ‘খলনায়ক’ হয়ে উঠেছিল চ্যাটজিপিটি। কিন্তু সময়ের সঙ্গে সঙ্গে সে দ্রুতই যেন মানুষের মনের কাছাকাছি পৌঁছতে শুরু করেছে।
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
নিয়মিত খবরে থাকতে ফলো করুন
Copyright © 2025 Sangbad Pratidin Digital Pvt. Ltd. All rights reserved.