আজকাল ChatGPT ব্যবহার করে না এমন মানুষ খুঁজে পাওয়া মুশকিল। রেসিপি থেকে শুরু করে ব্যবসার পরিকল্পনা, সিভি লেখা থেকে প্রেমপত্র সব কিছুতেই আমরা ছুটে যাই এই AI-এর কাছে। ২০২৫ সালের জুলাই মাসের তথ্য অনুযায়ী, প্রতি সপ্তাহে প্রায় ৮০ কোটি মানুষ Chat GPT ব্যবহার করছেন, এবং প্রতিদিন ১২ কোটিরও বেশি মানুষ এতে লগ ইন করছেন। কিন্তু এই বিশ্বাসের মাঝেই লুকিয়ে আছে বিপদ।
ChatGPT একটি শক্তিশালী টুল কিন্তু এটা সর্বজ্ঞ নয়, এবং এটাকে সব কিছু বলা বা জিজ্ঞেস করা উচিত না। সাম্প্রতিক গবেষণা ও বিশেষজ্ঞদের বিশ্লেষণ বলছে, কিছু নির্দিষ্ট প্রশ্ন আপনার গোপনীয়তা, নিরাপত্তা, এমনকি আপনার মানসিক স্বাস্থ্যের জন্যও ক্ষতিকর হতে পারে।
চলুন জেনে নিই সেই ৫টি প্রশ্ন, যেগুলো ChatGPT-কে কখনো করবেন না।
১. ব্যক্তিগত গোপন তথ্য শেয়ার করে প্রশ্ন করবেন না
“আমার ব্যাংক অ্যাকাউন্ট নম্বর এটা, আমাকে বলুন কোথায় বিনিয়োগ করব।” “আমার পাসওয়ার্ড হারিয়ে গেছে, এটা দিয়ে কী করব?” এই ধরনের প্রশ্ন যেখানে আপনার ব্যক্তিগত তথ্য জুড়ে দিচ্ছেন এটা অত্যন্ত বিপজ্জনক।
ChatGPT এবং অন্যান্য AI চ্যাটবটগুলো আপনার দেওয়া তথ্য দিয়ে নিজেদের ট্রেন করে। আপনি যা ইনপুট দেন, সেটা ভবিষ্যতে অন্য ব্যবহারকারীদের রেসপন্সকে প্রভাবিত করতে পারে। সোজা কথায়, আপনার ব্যাংক নম্বর, পাসওয়ার্ড বা জাতীয় পরিচয়পত্রের তথ্য ChatGPT-তে দিলে সেটা কার্যত একটা পাবলিক ফোরামে লেখার মতোই ঝুঁকিপূর্ণ।
এই ধরনের সংবেদনশীল তথ্য প্রতারকদের হাতে পড়লে তারা আপনার পরিচয় চুরি করতে পারে, বা আপনার অ্যাকাউন্টে অনুপ্রবেশ করতে পারে।
মনে রাখুন: ChatGPT একটি নিরাপদ ভল্ট নয়। এটাকে এমন কিছু বলবেন না যা আপনি রাস্তার মানুষকে বলবেন না।
২. ডাক্তারি পরামর্শ চাইবেন না
“আমার বুকে ব্যথা হচ্ছে, কী রোগ হতে পারে?” “এই ওষুধটা কতটুকু খেলে ভালো হবো?” গুগলে লক্ষণ খোঁজা আমাদের অনেকের অভ্যাস। ChatGPT আসার পর মনে হচ্ছে এটা আরও সহজ হয়ে গেছে কিন্তু আসলে আরও বিপজ্জনক হয়েছে।
ChatGPT কোনো প্রশিক্ষিত স্বাস্থ্যসেবা পেশাদার নয়। সবচেয়ে ভালো ক্ষেত্রে আপনি উৎস-সহ কিছু তথ্য পাবেন, কিন্তু সেই উৎসও ভালো করে যাচাই করা উচিত। মানুষ চ্যাটবটের পরামর্শ মেনে সত্যিই অসুস্থ হয়েছেন।
ChatGPT হয়তো “মায়োকার্ডিয়াল ইনফার্কশন” বা “কগনিটিভ বিহেভিয়ারাল থেরাপি”-র মতো শব্দ ব্যবহার করে মনে হবে বিশেষজ্ঞের মতো কথা বলছে কিন্তু এটা ডাক্তার নয়। একজনের বন্ধু অদ্ভুত র্যাশের কথা জিজ্ঞেস করলে AI ল্যাভেন্ডার অয়েল লাগানোর ভুল পরামর্শ দিয়েছিল।
শরীর নিয়ে সিরিয়াস প্রশ্ন থাকলে ডাক্তারের কাছে যান। ChatGPT নয়।
৩. সম্পর্কের পরামর্শ চাইবেন না
“আমার বয়ফ্রেন্ড/গার্লফ্রেন্ড আমাকে ছেড়ে দিয়েছে, এখন কী করব?” “আমার বিয়ে টিকবে কি না, বলুন।” সম্পর্কের জটিলতায় আমরা কারো কাছে মন খুলতে পারি না তখন ChatGPT মনে হয় নিরাপদ আশ্রয়। কিন্তু এই বিশ্বাসটাই সবচেয়ে বড় ভুল।
ChatGPT ইন্টারনেটের যাবতীয় তথ্য দিয়ে ট্রেন হওয়া যেখানে সম্পর্কের পরামর্শের সবচেয়ে খারাপ জায়গাগুলোও আছে। AI হয়তো আপনার ভুল চিন্তাভাবনাকে সমর্থন করে যাবে, কিংবা এমন পরামর্শ দেবে যা একজন থেরাপিস্ট কখনো দিতেন না।
প্রশ্নটা কীভাবে করছেন তার ওপর নির্ভর করে ChatGPT সম্পূর্ণ ভিন্ন উত্তর দিতে পারে। এটা সহানুভূতি নয়, এটা প্যাটার্ন ম্যাচিং। সম্পর্কের সমস্যায় বিশ্বস্ত মানুষ বা পেশাদার কাউন্সেলরের সাহায্য নিন।
৪. আইনি বা আর্থিক সিদ্ধান্ত নিতে বলবেন না
“এই চুক্তিটা কি সই করা ঠিক হবে?” “কোন স্টকে বিনিয়োগ করলে লাভ হবে?” ChatGPT দেখতে অনেক স্মার্ট কিন্তু আইন বা অর্থনীতির ক্ষেত্রে এর সীমাবদ্ধতা মারাত্মক হতে পারে।
একজন ব্যবহারকারী HR টিমকে পাঠানোর জন্য ChatGPT দিয়ে একটি চিঠি লিখেছিলেন, যেখানে AI এমন একটি শ্রম আইনের উদ্ধৃতি দিয়েছিল যেটার অস্তিত্বই নেই। এটাকে বলে “হ্যালুসিনেশন” AI আত্মবিশ্বাসের সাথে ভুল তথ্য তৈরি করে।
ChatGPT সাধারণ স্বাস্থ্য বা আইনি তথ্য দিতে পারে, কিন্তু এটা কখনো ডাক্তার বা আইনজীবীর বিকল্প নয়। আর্থিক বা আইনি সিদ্ধান্তে এর উপর নির্ভর করলে লাখ টাকার ক্ষতিও হতে পারে।
৫. কোম্পানির গোপন তথ্য দিয়ে প্রশ্ন করবেন না
“আমাদের কোম্পানির এই প্রজেক্টের ডেটা দেখো এবং বিশ্লেষণ করো।” “আমার ক্লায়েন্টের এই তথ্যগুলো দিয়ে একটা রিপোর্ট বানাও।” অফিসের কাজ দ্রুত সারতে অনেকেই ChatGPT-তে কোম্পানির গোপন তথ্য পেস্ট করেন। এটা শুধু আপনার চাকরির জন্য নয়, পুরো কোম্পানির জন্যও বিপজ্জনক।
যদি আপনি HIPAA সুরক্ষিত চিকিৎসা তথ্য বা কোনো গোপনীয় ক্লায়েন্ট ডেটা ChatGPT-তে দেন, সেই তথ্য এখন মারাত্মক ঝুঁকিতে এমনকি যদি আপনার উদ্দেশ্য ভালোও ছিল। এই ধরনের ঘটনা আগেও ঘটেছে।
OpenAI নিজেই সতর্ক করেছে যে লগইন তথ্য, ক্লায়েন্ট ডেটা বা ফোন নম্বরের মতো সংবেদনশীল তথ্য শেয়ার করা নিরাপত্তা ঝুঁকি তৈরি করে। Samsung থেকে শুরু করে অনেক বড় কোম্পানি এই কারণে কর্মীদের ChatGPT ব্যবহারে নিষেধাজ্ঞা দিয়েছে।
ChatGPT একটা অসাধারণ টুল কিন্তু এটা একটা টুলই। হাতুড়ি দিয়ে যেমন স্ক্রু লাগানো যায় না, ChatGPT দিয়েও সব সমস্যার সমাধান হয় না। অনেক মানুষ ChatGPT-কে “ওরাকল” বা সর্বজ্ঞ ভাবেন মনে করেন এটা সব জানে এবং সব পারে। কিন্তু এটা একটি মাল্টি-মডাল LLM যা ভুল তথ্য তৈরিতে বেশ পারদর্শী।
সঠিক প্রশ্ন করুন, সঠিক জায়গায় করুন। ChatGPT ব্যবহার করুন — কিন্তু বুঝেশুনে।

