এআইকে ঘিরে আমাদের সমাজে সাধারণত দুই ধরনের অনুভূতি কাজ করে—একদল মনে করে এআই সব সমস্যার জাদুকাঠি, আরেকদল মনে করে এআই একদিন মানুষের জন্য ভয়ংকর বিপদ হয়ে উঠবে। ড. আলিমুর রেজা এই দুই চরমের মাঝখানে দাঁড়িয়ে বলেন, বাস্তবতা হলো—এআইকে “থামিয়ে” দেওয়া সম্ভব নয়; বরং এটিকে কীভাবে দায়িত্বশীলভাবে নিয়ন্ত্রণের মধ্যে রেখে এগোনো যায়, সেটাই মূল প্রশ্ন। তিনি বলেন, “এআই অনেকটা প্যান্ডোরাস বক্সের মতো—ওপেন হয়ে গেছে; স্টপ করাটা সলিউশন না, কন্ট্রোল ওয়েতে এটা গ্রো করাটাই রাইট অ্যাপ্রোচ।”
তিনি “প্যান্ডোরাস বক্স” উদাহরণটি টেনে একটি গুরুত্বপূর্ণ সত্য সামনে আনেন। একবার কোনো শক্তিশালী প্রযুক্তি তৈরি হলে তা আর শুধু গবেষণাগারের ভেতর থাকে না। বাজারে প্রতিযোগিতা থাকে, রাষ্ট্রের স্বার্থ থাকে, ব্যবসার লাভক্ষতি থাকে। আপনি যদি বলেন, আমি আর এআই বানাব না, তাহলে আপনার প্রতিদ্বন্দ্বী থেমে থাকবে না। ফলে “সবাই মিলে থেমে যাই”—এই ধারণা বাস্তবে কাজ করে না। তাই থামার কথা না ভেবে, কীভাবে নীতিমালা, নজরদারি, সচেতনতা এবং সামাজিক দায়িত্বের মাধ্যমে প্রযুক্তিকে নিরাপদ পথে রাখা যায়—সেটাই বুদ্ধিমানের কাজ।
এআই অপব্যবহার বলতে আমরা সাধারণত দ্রুত কিছু উদাহরণ মনে করি—ভুয়া ছবি বা ভিডিও তৈরি, ভুল তথ্য ছড়ানো, প্রতারণা, গোপনীয়তা লঙ্ঘন। কিন্তু ড. আলিমুর রেজা যে গভীর বিপদের কথাটি বলেন, তা আরও মৌলিক: মেশিন ইন্টেলিজেন্সের রেপ্লিকেশন পাওয়ার বা অনুকরণ/কপি করার ক্ষমতা। মানুষ সারাজীবনে যে অভিজ্ঞতা আর জ্ঞান অর্জন করে, তা অন্য মানুষের মাথায় হুবহু ঢুকিয়ে দেওয়া যায় না। একজন শিক্ষক ক্লাস নিলেও শিক্ষার্থীর ভেতরে জ্ঞান পৌঁছায় ধাপে ধাপে, নিজের বোঝাপড়া ও অনুশীলনের মধ্য দিয়ে। কিন্তু মেশিন যেহেতু ডিজিটাল, একবার কোনো মডেল বা সিস্টেম তৈরি হলে সেটিকে একই রকমভাবে অসংখ্য কপি করা যায়, দ্রুত ছড়িয়ে দেওয়া যায়। এই দ্রুত বিস্তারের কারণেই নিয়ন্ত্রণের কাজটি কঠিন হয়ে ওঠে, বিশেষ করে যদি ভবিষ্যতে কোনো ব্যবস্থা নিজে নিজেই “আরও সক্ষম” হয়ে উঠতে শুরু করে।
এখানে তিনি এআই গবেষণা–জগতের ভেতরের বিতর্কটিও ইঙ্গিত করেন। জেফ্রি হিন্টনের মতো গবেষকরা ঝুঁকির দিকটি সামনে এনে বলেন, আমরা সামনে পাঁচ বছরকে কুয়াশার মতো দেখি—সব কিছু খুব অনিশ্চিত। অন্যদিকে ইয়ান লেকুনের মতো গবেষকরা বেশি আশাবাদী—তাদের মতে, সঠিকভাবে উন্নয়ন করলে এআই মানবকল্যাণে বড় ভূমিকা রাখতে পারে। ড. আলিমুর রেজার অবস্থান হলো, আমরা নিশ্চিতভাবে জানি না ভবিষ্যতে কী হবে, তাই নিয়ন্ত্রণহীন উন্নয়ন ঝুঁকিপূর্ণ; আবার পুরো উন্নয়ন থামিয়ে দেওয়াও বাস্তবসম্মত নয়। এই দ্বৈত সত্য মেনে নিয়েই আমাদের কাজ হলো দায়িত্বশীল পথ তৈরি করা।
কিন্তু নিয়ন্ত্রণ মানে কী? ড. আলিমুর রেজার কথার আলোকে এটি তিনটি স্তরে ভাবা যায়। প্রথমত, ব্যক্তিগত স্তরে সচেতনতা—এআই দিয়ে যা দেখা বা পড়া হচ্ছে, তা যাচাই করার অভ্যাস। দ্বিতীয়ত, প্রতিষ্ঠান ও বাজারের স্তরে নীতিমালা—ডেটা সুরক্ষা, স্বচ্ছতা, ভুল তথ্যের বিরুদ্ধে ব্যবস্থা, এবং নিরাপত্তা পরীক্ষা। তৃতীয়ত, রাষ্ট্র ও সমাজের স্তরে সমন্বিত উদ্যোগ—শিক্ষা, আইন, গবেষণা নৈতিকতা, এবং জনস্বার্থকে অগ্রাধিকার দেওয়া। এআইকে আপনি নদীর স্রোতের মতো ভাবতে পারেন। স্রোত থামানো যায় না, কিন্তু বাঁধ, নালা, সেতু, নিয়ম-কানুন দিয়ে স্রোতকে নিরাপদ পথে চালিত করা যায়। ড. আলিমুর রেজার “কন্ট্রোল ওয়েতে গ্রো করা” কথাটি আসলে এই বাস্তবতাই বোঝায়।
বাংলাদেশের জন্য এই আলোচনা আরও জরুরি। কারণ প্রযুক্তি গ্রহণের ক্ষেত্রে আমরা অনেক সময় সরাসরি ব্যবহার করি, কিন্তু ঝুঁকি ব্যবস্থাপনা, ডেটা নিরাপত্তা, এবং নৈতিক নীতিমালা তৈরিতে পিছিয়ে পড়ি। ফলে অপব্যবহার ঠেকাতে আগে থেকেই শিক্ষা ও সচেতনতা গড়ে তোলা দরকার। একই সঙ্গে এআই নিয়ে ভয় না ছড়িয়ে, যুক্তিবোধ দিয়ে ভাবতে হবে—কোথায় এটি উপকার করবে, কোথায় নিয়ন্ত্রণ দরকার, কোথায় মানুষের সিদ্ধান্তই শেষ কথা। এআইকে ভবিষ্যতের হাতিয়ার বানাতে হলে, আমাদের কৌতূহলের সাথে যুক্ত করতে হবে দায়িত্ববোধ।
ড. আলিমুর রেজার এই বক্তব্য তাই শুধু প্রযুক্তি নিয়ে মন্তব্য নয়; এটি এক ধরনের নাগরিক শিক্ষা। আপনি যদি এআই শিখতে চান, শুধু কোড লিখলেই হবে না—কাজের ফল সমাজে কী প্রভাব ফেলছে, তা বোঝার চেষ্টাও করতে হবে। কারণ বড় শক্তির সাথে বড় দায়িত্ব আসে—এ কথা প্রযুক্তির ক্ষেত্রেও সত্য।
পূর্ণ সাক্ষাৎকারে ড. আলিমুর রেজা তার শিক্ষা–যাত্রা, গবেষণার খুঁটিনাটি, রোবটের ভবিষ্যৎ, এবং এআই ব্যবহারের বাস্তব প্রশ্নগুলো আরও বিস্তারিতভাবে বলেছেন। নিম্নে ড. আলিমুর রেজার পূর্ণ সাক্ষাৎকারটি পড়ুন এবং ইউটিউবে দেখুন।

Leave a comment