বিজ্ঞানী অর্গ , প্রযুক্তি ডেস্ক
কৃত্রিম বুদ্ধিমত্তা (AI) ও মেশিন লার্নিং (ML) প্রযুক্তি আজকের বিশ্বে বিপ্লব ঘটাচ্ছে। AI হল এমন একটি প্রযুক্তি যা কম্পিউটারকে মানুষের মতো চিন্তা করতে শেখায়, আর ML হল তার একটি শাখা, যেখানে কম্পিউটার স্বয়ংক্রিয়ভাবে ডাটা থেকে শিখে সিদ্ধান্ত নিতে পারে।
কখনো কি এমন হয়েছে যে আপনি একটি মেশিন লার্নিং মডেল তৈরি করেছেন যা প্রশিক্ষণ ডাটায় দারুণ কাজ করেছিল, কিন্তু বাস্তব জগতে তা ব্যর্থ হয়েছে? যদি হ্যাঁ, তাহলে আপনি একা নন। মেশিন লার্নিং একটি জটিল প্রক্রিয়া এবং এখানে ছোট ছোট ভুলও বড় সমস্যা তৈরি করতে পারে।
ভুল ডাটা, ভুল সিদ্ধান্ত
মেশিন লার্নিংয়ের পুরো ভিত্তি ডাটার ওপর নির্ভরশীল। কিন্তু যদি ডাটাই ভুল বা বিভ্রান্তিকর হয়, তাহলে যে মডেল তৈরি হবে তা কার্যত অকার্যকর হবে। COVID-19 মহামারির সময় এমন অসংখ্য মডেল তৈরি হয়েছিল, যা পরে দেখা গেছে সঠিকভাবে কাজ করে না। এ ধরনের মডেলের ব্যর্থতার অন্যতম কারণ হল “গার্বেজ ইন, গার্বেজ আউট“— অর্থাৎ, ভুল ডাটা দিলে ভুল ফলাফল আসবেই।
অনেক সময় ডাটার মধ্যে লুকানো ভেরিয়েবল বা পরিবর্তিত চিহ্ন থাকে যা মডেলকে ভুল পথে পরিচালিত করে। উদাহরণস্বরূপ, COVID-19 চেস্ট ইমেজিং ডাটাসেটে দেখা গেছে যে যেসব রোগী বেশি অসুস্থ ছিলেন, তাদের স্ক্যান সাধারণত শোয়া অবস্থায় করা হয়েছে, আর সুস্থ রোগীদের স্ক্যান করা হয়েছে দাঁড়িয়ে। ফলে মডেলটি রোগ নির্ণয়ের পরিবর্তে শুধুমাত্র স্ক্যানিং অবস্থান শনাক্ত করতে শিখেছে।
কৃত্রিম সম্পর্ক ও বিভ্রান্তিকর সংকেত
অনেক সময় মডেল এমন কিছু বিষয়ের ওপর নির্ভর করে যা আসল সমস্যার সঙ্গে সম্পর্কহীন। যেমন, মার্কিন সেনাবাহিনী একবার একটি মডেল তৈরি করেছিল যাতে ট্যাংকের ছবি শনাক্ত করা যাবে। কিন্তু পরে দেখা গেল যে মডেলটি ট্যাংকের পরিবর্তে ছবির আলোর অবস্থানের ভিত্তিতে কাজ করছে। এতে দিনের সময় পরিবর্তন হলে মডেল পুরোপুরি ব্যর্থ হয়।
এ ধরনের সমস্যা সমাধানের জন্য বিভিন্ন পদ্ধতি অনুসরণ করা যায়। একটি পদ্ধতি হল এক্সপ্লেইনেবল এআই (Explainable AI), যা দেখায় যে মডেল কোন অংশ দেখে সিদ্ধান্ত নিচ্ছে। যদি দেখা যায় মডেল প্রধান বস্তু বাদ দিয়ে ব্যাকগ্রাউন্ডের দিকে বেশি মনোযোগ দিচ্ছে, তবে সেটি কার্যকর মডেল নয়।
তথ্য ফাঁস ও পরীক্ষার ভুল
মেশিন লার্নিং মডেলের আরেকটি বড় সমস্যা হল “ডাটা লিকেজ” বা তথ্য ফাঁস। অর্থাৎ, মডেল প্রশিক্ষণের সময় এমন কিছু তথ্য পেয়ে যায়, যা বাস্তবে পাওয়ার কথা নয়। এটি তখন ঘটে যখন মডেল প্রশিক্ষণের আগে পুরো ডাটাসেটের কিছু বৈশিষ্ট্য জেনে ফেলে।
উদাহরণস্বরূপ, অনেক সময় ডাটা আগেই স্বাভাবিককরণ (Normalization) করা হয়, যা মডেলকে ভবিষ্যতের তথ্য সম্পর্কে ধারণা দিতে পারে। এ ধরনের সমস্যা দেখা যায় শেয়ার বাজার পূর্বাভাস মডেলে, যেখানে অতীতের তথ্য বিশ্লেষণ করে ভবিষ্যৎ অনুমান করার চেষ্টা করা হয়। যদি মডেল অনিচ্ছাকৃতভাবে ভবিষ্যতের ডাটা পেয়ে যায়, তাহলে তার পূর্বাভাস অস্বাভাবিকভাবে ভালো হতে পারে। কিন্তু বাস্তবে, নতুন পরিস্থিতিতে এটি ব্যর্থ হবে।
মূল্যায়ন প্রক্রিয়ার সীমাবদ্ধতা
একটি মডেল মূল্যায়নের ক্ষেত্রে ভুল মেট্রিক ব্যবহার করাও বড় সমস্যা হতে পারে। অনেক ক্ষেত্রেই শুধুমাত্র “সঠিকতার হার” (Accuracy) দেখে সিদ্ধান্ত নেওয়া হয়, যা বিভ্রান্তিকর হতে পারে। উদাহরণস্বরূপ, যদি একটি মডেল কেবলমাত্র সংখ্যাগরিষ্ঠ শ্রেণির ভবিষ্যদ্বাণী করে, তাহলে তার সঠিকতার হার বেশি হতে পারে, কিন্তু এটি কার্যকর নয়।
বিশেষ করে, সময়-সারণির ভবিষ্যদ্বাণী মডেলগুলোর ক্ষেত্রে ভুল মেট্রিক ব্যবহার করলে বড় ধরনের সমস্যা হতে পারে। গবেষণায় দেখা গেছে, অনেক জটিল মডেল আসলে একেবারেই সাধারণ মডেলের তুলনায় ভালো কাজ করে না। তাই মডেল মূল্যায়নের জন্য একাধিক মেট্রিক ব্যবহার করাই বুদ্ধিমানের কাজ।
কিভাবে এই ভুলগুলি এড়ান সম্ভব?
এই ধরনের সমস্যা এড়ানোর জন্য গবেষকরা এখন “REFORMS চেকলিস্ট” নামক একটি নির্দেশিকা অনুসরণ করছেন। এটি নিশ্চিত করে যে মডেল প্রশিক্ষণের প্রতিটি ধাপ যথাযথভাবে সম্পন্ন হয়েছে এবং কোনো গুরুত্বপূর্ণ ভুল নেই। এছাড়াও, উন্নত ট্র্যাকিং ও যাচাই প্রযুক্তি ব্যবহার করে ডাটা লিকেজ এবং ওভারফিটিং কমানো সম্ভব।
মেশিন লার্নিং মডেল তৈরি করার সময় অতিরিক্ত আত্মবিশ্বাস না রেখে বরং ভুল হতে পারে সেই মানসিকতা নিয়ে মডেলের পারফরম্যান্স বিশ্লেষণ করা উচিত। প্রতিটি সিদ্ধান্ত এবং তথ্য উৎস যাচাই করা জরুরি। কারণ ভুল একটি মডেল কেবল গবেষণার জন্যই নয়, বরং বাস্তব জীবনের গুরুত্বপূর্ণ সিদ্ধান্তেও বড় ধরনের সমস্যা তৈরি করতে পারে।
Leave a comment