অনলাইন ডেস্ক
আমিল খানের ভ্যালেন্ট প্রজেক্ট দেখতে পেয়েছে, এই প্রক্রিয়ার আরও উন্নত পদ্ধতি ব্যবহৃত হয়েছে রাশিয়া থেকে ইউরোপে অপতথ্য ছড়ানোর ক্ষেত্রে। বিশেষ করে, ব্রিটেনে কট্টর ডানপন্থী কনটেন্ট ছড়ানোর আগে, স্প্রেডার অ্যাকাউন্টগুলো ব্রিটিশ রাজপরিবার সংক্রান্ত বিভিন্ন মুখরোচক গল্প প্রচার/প্রকাশ করে ফলোয়ারদের আকৃষ্ট করেছে। একটি নির্দিষ্ট পরিমাণ ফলোয়ার হয়ে যাওয়ার পর এই স্প্রেডার অ্যাকাউন্টগুলো ভোল পাল্টে ফেলে।
মাইক্রোসফটের থ্রেট ইন্টেলিজেন্স দেখতে পেয়েছে, চীনা স্টর্ম–১৩৭৬ এই নতুন বিতরণ পদ্ধতি অনুসরণ করেই হাওয়াইয়ের দাবানলের ব্যাপারে গুজব ছড়িয়েছিল। একই সঙ্গে, দক্ষিণ কোরিয়ার বিভিন্ন অ্যাকাউন্ট থেকে জাপান সরকারের সমালোচনাও করেছে। এমনকি, ২০২৩ সালের শেষ দিকে যুক্তরাষ্ট্রের কেন্টাকিতে ট্রেন লাইনচ্যুত হওয়ার পেছনেও ষড়যন্ত্র তত্ত্ব প্রচার করা হয়েছে এই চীনা প্ল্যাটফর্ম থেকে।
যখন অনেকগুলো সোশ্যাল মিডিয়া অ্যাকাউন্ট কোনো একটি বিষয়ে ঠিক একই ধরনের শব্দ বা শব্দবন্ধ ব্যবহার করে—তখন সেখান থেকে সিআইবি বা কো–অর্ডিনেটেড ইন–অথেনটিক বিহেভিয়র বা সমন্বিতভাবে অপতথ্য ছড়ানোর কৌশলকে সহজেই শনাক্ত করা সম্ভব হয়। যেমন, সামাজিক যোগাযোগমাধ্যমে কোনো একটি ন্যারেটিভ বা বয়ান ভাইরাল বা ‘ট্রেন্ডে’ পরিণত হওয়া নতুন কিছু নয়। কিন্তু যখন নির্দিষ্ট ওই ইস্যুতে বিশ্বের বিভিন্ন ভাষায় ও বিভিন্ন স্থান থেকে প্রায় একই ধরনের শব্দ ব্যবহার করে পোস্ট শেয়ার করা হয়, তখন বুঝতে হবে ‘ডাল মে কুচ কালা হ্যায়’!
এই অবস্থায় অপতথ্য নিয়ে কাজ করা পক্ষগুলোর জন্য সেগুলোর উৎস সন্ধানের বিষয়টি তুলনামূলক সহজ হয়। বিশেষ করে, যখন একাধিক অ্যাকাউন্ট থেকে একই ধরনের অপতথ্য শেয়ার করা হয়, তখন অপতথ্য শনাক্তকারী পক্ষগুলো বিভিন্ন অ্যাকাউন্ট থেকে যে নির্দিষ্ট একটি কনটেন্ট সৃষ্টি ও শেয়ার করা হয়েছে সেটির দিন–তারিখ ও ফলোয়ার সংখ্যা যাচাই বাছাই করে দেখতে পারে। সাধারণত, এসব স্প্রেডার অ্যাকাউন্ট হঠাৎ করে বিপুল পরিমাণ ভুয়া ফলোয়ার কিনে রাখে নিজেদের গ্রহণযোগ্যতা উপস্থাপনের জন্য।
কিন্তু নতুন যে পদ্ধতিতে বর্তমানে অপতথ্য ছড়ানো হচ্ছে, সেখানে সিডার ও স্প্রেডার অ্যাকাউন্ট শনাক্ত করা খুবই কঠিন। কারণ, সিডাররা একটি নির্দিষ্ট ন্যারেটিভ প্রচার করে। কিন্তু স্প্রেডাররা যেসব কনটেন্ট প্রচার করে, সেগুলোর সঙ্গে সিডারদের কনটেন্টের গুণগত তফাৎ থাকে।
ভ্যালেন্ট প্রজেক্ট এআই ব্যবহার করে এই সমস্যা সমাধানের চেষ্টা করেছে। প্রতিষ্ঠানটির নিজস্ব কৃত্রিম বুদ্ধিমত্তা সিস্টেম ‘আরিয়াডনে’ সামাজিক যোগাযোগমাধ্যম থেকে নির্দিষ্ট কোনো একটি ইস্যুর কনটেন্ট নিয়ে তা সূক্ষ্মভাবে যাচাইবাছাই করে দেখে। সেই কনটেন্টগুলো অস্বাভাবিক কিন্তু সমন্বিত কার্যক্রমের ওপর নজরদারি চালিয়ে সেগুলোর সাধারণ বয়ান ও মতাদর্শ শনাক্ত করে। এ বিষয়ে আমিল খান বলেন, ‘আগে যেখানে নির্দিষ্ট কী–ওয়ার্ড ধরে কাজ করা হতো, সেখানে এখন মতাদর্শিক দৃষ্টিভঙ্গি ধরে কাজ করা হয়, যা আমরা আগে কখনো করিনি।’
সামাজিক মাধ্যমে অপতথ্যের বিস্তার ঘটানো অ্যাকাউন্ট শনাক্ত করার আরও একটি উপায় বাতলেছে ওয়াশিংটনের ব্রুকিংস ইনস্টিটিউট। যুক্তরাষ্ট্রের পেনসিলভানিয়ার পিটসবার্গের কার্নেগি মেলন ইউনিভার্সিটির অর্থনীতির অধ্যাপক মারিয়াম সাইদি ও তাঁর সহকর্মীরা সামাজিক যোগাযোগমাধ্যম এক্স–এ ফারসি ভাষার ৬ কোটি ২০ লাখ টুইট পরীক্ষা করে দেখেছেন। ২০২২ সালের সেপ্টেম্বরে ইরানে সরকারবিরোধী আন্দোলনের সময়কার পোস্ট ছিল সেগুলো। মূলত, সে সময় কোন কোন অ্যাকাউন্ট অপতথ্যের স্প্রেডার হিসেবে কাজ করেছে তা এআইয়ের সহায়তায় শনাক্ত করার চেষ্টা চালিয়েছিলেন তাঁরা। মারিয়াম এবং তাঁর সহকর্মীরা দেখেছেন, এ ক্ষেত্রে স্প্রেডার অ্যাকাউন্টগুলো প্রথম দিকে সরকারবিরোধীদের পক্ষে ছিল। কিন্তু পরে আস্থা অর্জন করে সরকারের পক্ষে কনটেন্ট প্রচার করতে শুরু করে।
এ ধরনের অ্যাকাউন্টগুলোকে গবেষকেরা ‘প্রতারক’ বলে আখ্যা দিয়েছেন। সাধারণ বিবেচনায়ও তাঁরা কিছু স্প্রেডার অ্যাকাউন্ট শনাক্ত করেছিলেন। এরপরই মূলত নিজেদের তৈরি অ্যালগরিদম দিয়ে এ ধরনের সাদৃশ্যপূর্ণ বৈশিষ্ট্যের বিপুলসংখ্যক অ্যাকাউন্ট খুঁজে পান। অ্যাকাউন্টগুলোর পোস্ট করার ধরন, ফলোয়ারের সংখ্যা, নির্দিষ্ট হ্যাশট্যাগের ব্যবহার, অ্যাকাউন্টগুলো তৈরির দিন–তারিখ এবং অন্যান্য বিষয় শনাক্ত করেন। এরপর গবেষকেরা নেটওয়ার্ক অ্যানালাইসিসের মাধ্যমে প্রায় ৯৪ শতাংশ নির্ভুলতার সঙ্গে স্প্রেডার অ্যাকাউন্টগুলো শনাক্ত করেন। যেমন, একটি নির্দিষ্ট অ্যাকাউন্টের সঙ্গে অন্য অ্যাকাউন্টের কী ধরনের সম্পর্ক আছে সেগুলো তাঁরা এআইয়ের সাহায্যে খুব সহজেই বের করতে পারেন।
গবেষকেরা বলছেন, এই পদ্ধতিতে যেসব অ্যাকাউন্ট থেকে অপতথ্য ছড়ানোর আশঙ্কা আছে কিংবা যেসব অ্যাকাউন্ট অপতথ্য ছড়ায় তা সহজেই শনাক্ত করা সম্ভব। তাঁরা বলছেন, সামাজিক যোগাযোগমাধ্যমগুলো এই নেটওয়ার্ক অ্যানালাইসিস পদ্ধতি ব্যবহার করে একটি স্প্রেডার অ্যাকাউন্ট থেকে কী পরিমাণ প্রোপাগান্ডা ছড়ানো হয়েছে তা হিসাব করতে পারবে। এমনকি চাইলে প্ল্যাটফর্মগুলো তাদের ব্যবহারকারীদের কাছে এসব অ্যাকাউন্টের চরিত্র উন্মোচন করতে পারবে।
তবে গবেষকেরা এখনই স্বস্তির নিশ্বাস ফেলছেন না। তাঁরা বলছেন, এখনো এই প্রতারক শনাক্তকরণ অ্যালগরিদমের উন্নয়ন সম্ভব। বিশেষ করে, ন্যাচারাল ল্যাঙ্গুয়েজ প্রসেসিং এবং ডিপ লার্নিংয়ের সহায়তায় এই অ্যালগরিদমের উন্নতি আরও দ্রুত করা সম্ভব।
কোনো সন্দেহ নেই যে, গোয়েন্দা সংস্থা ও প্রযুক্তি প্রতিষ্ঠানগুলো এ ধরনের বিশ্লেষণ এরই মধ্যে করছে। তবে, তারা সাধারণত তাদের বিশ্লেষণের ডেটা অন্য কারও সঙ্গে শেয়ার করতে খুব একটা আগ্রহী নয়। যেমন, মেটা কেবল জানিয়েছে যে, তারা ব্যবহারকারীদের সুরক্ষা দিতে এর যেসব নীতিমালা আছে সেগুলো বাস্তবায়নে বহু বছর ধরে ‘ইনটিগ্রিটি সিস্টেমে’ এআই ব্যবহার করে আসছে। কিন্তু গবেষক ও নাগরিক সমাজের প্রতিনিধিরা বলছেন, সব ধরনের অপতথ্য স্বয়ংক্রিয়ভাবে শনাক্ত করার জন্য কোনো একক পদ্ধতি কাজে আসবে না।
তবে এআই একটি ভিন্ন উপায়ে অপতথ্য মোকাবিলায় সাহায্য করতে পারে। বিশেষ করে, বিভিন্ন পোস্ট, নিবন্ধ, অডিও ক্লিপ বা ভিডিও বিশ্লেষণের মাধ্যমে প্রতারণামূলক কনটেন্ট সরাসরি চিহ্নিত করতে পারে এআই। যুক্তরাষ্ট্রের ডিপার্টমেন্ট অব ডিফেন্সের বিশেষ প্রকল্প—গবেষণা শাখা (ডারপা) ‘সিম্যান্টিক ফরেনসিকস’—প্রোগ্রামের অংশ হিসেবে বিভিন্ন জাল বা বিকৃত বৈশিষ্ট্যযুক্ত কনটেন্ট শনাক্ত করার গবেষণায় অর্থায়ন করছে।
চলতি বছরের মার্চে ডারপা ওপেন সোর্স রিপোজিটরি প্রকাশ করেছে। যেখানে ডাউনলোডযোগ্য সোর্স কোডের লিংকসহ ‘ডিপফেক’ শনাক্তকরণের একটি অ্যালগরিদম রয়েছে। এর লক্ষ্য হলো, একাডেমিক ও বাণিজ্যিক ব্যবহারকারীদের অপতথ্য ছড়াতে ভূমিকা রাখা অ্যাকাউন্টগুলোকে শনাক্ত করার প্রয়োজনীয় টুলগুলোর সমন্বয় করতে, উন্নত করতে উৎসাহিত করা।
এ বিষয়ে ডারপার ড. উইল করভি বলেন, সাধারণত অপতথ্য শনাক্তকরণে একক কোনো টুল বিশ্বাসযোগ্য নাও হতে পারে। কিন্তু অনেকগুলো টুল একত্র করলে অপতথ্য শনাক্ত করার ক্ষেত্রে নির্ভুলতা বাড়তে পারে। উদাহরণ হিসেবে বলা যেতে পারে, কোনো একজন রাজনীতিবিদের ফাঁস হওয়া ভিডিও বা অডিও আসল কিনা—তা যাচাই করা কঠিন। কারণ, সেই ব্যক্তির কাছ থেকে প্রকৃত তথ্য পাওয়া নাও যেতে পারে। কিন্তু সংশ্লিষ্ট ব্যক্তির প্রামাণিক তথ্য ব্যবহার করে এআই মডেলকে প্রশিক্ষণ দেওয়া সম্ভব।
এআইকে ওই ব্যক্তির নির্দিষ্ট বৈশিষ্ট্য শিখিয়ে—যেমন কথা বলার সময় ব্যক্তি মাথা নাড়ায় কিনা, তাঁর মুখের নড়াচড়ার ধরন কেমন ইত্যাদি—এরপর সত্যতা যাচাইয়ের জন্য সন্দেহজনক ডিপফেক কনটেন্ট বিশ্লেষণে ব্যবহার করা যেতে পারে। আরও ভালো ফল পাওয়ার জন্য ব্যক্তির হার্টবিট পর্যন্ত রেকর্ড করা যেতে পারে।
এ বিষয়ে উল কার্ভি বলেন, এটি অন্যান্য কৌশলগুলোর সঙ্গে যুক্ত করা যেতে পারে। কারণ ভিডিও থেকে হার্টবিট শনাক্ত করা সম্ভব এবং প্রতিটি ব্যক্তির ক্ষেত্রে এটি জাল করা কঠিন। এ ছাড়া, সংশ্লিষ্ট ব্যক্তির কপালের ভাঁজ বা কুঞ্চন পর্যন্ত রেকর্ড করে ডিপফেকের সঙ্গে মিলিয়ে পাঠ করা যেতে পারে। যা নির্ভুলতা আরও বাড়াবে।
এমন সমন্বিত উদ্যোগের ক্ষেত্রে ডারপাই একমাত্র জায়গা নয়। অ্যালেন ইনস্টিটিউট ফর আর্টিফিশিয়াল ইন্টেলিজেন্সের সাবেক প্রধান ও কম্পিউটার বিজ্ঞানী ওরেন ইটিজিওনি ট্রুমিডিয়া নামে একটি সংস্থা প্রতিষ্ঠা করেছেন। চলতি বছরের জানুয়ারিতে অপতথ্য শনাক্তকরণ টুলগুলোতে সবার প্রবেশাধিকার প্রসারিত করতে তিনি এই উদ্যোগ নেন। গত ২ এপ্রিল ট্রুমিডিয়া একটি ওয়েবসাইট উন্মোচন করেছে যা বিনা মূল্যের ওয়েব ইন্টারফেসের মাধ্যমে ওপেন–সোর্স ও বাণিজ্যিক টুলগুলোকে ব্যবহার করে সিনথেটিক বা ম্যানিপুলেটেড ছবি, ভিডিও ও অডিও শনাক্ত করার জন্য একটি ওয়ান–স্টপ পরিষেবা দেওয়া শুরু করেছে।
মেটার হেড অব গ্লোবাল অ্যাফেয়ার্স নিক ক্লেগ বলছেন, নেতিবাচক কনটেন্টের কথা এলে এআই একই সঙ্গে তলোয়ার এবং ঢাল হিসেবেই কাজ করে। অনেকটা যেন, ‘সর্প হইয়া দংশন করও, ওঝা হইয়া ঝাড়ো’–এর মতো। ড. উইল কার্ভি বলছেন, তিনি আশাবাদী যে, এআই–চালিত প্রতিরক্ষামূলক শনাক্তকরণ টুলগুলো অপতথ্য উৎপাদক টুলগুলোর চেয়ে এগিয়ে থাকতে পারে।
তবে হতাশাবাদী লোকও আছেন। যেমন স্ট্যানফোর্ড ইন্টারনেট অবজারভেটরিতে ‘তথ্যপ্রবাহ অধ্যয়নের’ গবেষক রেনে দিরেস্তা বলেন, আমি খুব একটা আত্মবিশ্বাসী নই। বর্তমানের শনাক্তকরণ টুলগুলো একটি নিয়ন্ত্রিত পরিবেশে ভালো কাজ করতে পারে। মূলত, যখন এই টুলগুলোর হাতে অনেক বেশি সময় থাকে তখন ভালো ফলাফল পাওয়া যায়। কিন্তু ঘটনা ঘটে যাওয়ার সঙ্গে সঙ্গে এই টুলগুলোকে দ্রুত কাজ করতে দিলে তা থেকে খুব দ্রুত ফল আসে না।
রেনে দিরেস্তার মতে, আরও গভীর সংকট আছে। সেটি হলো মানুষের মনস্তত্ত্ব। তিনি বলছেন, ধরা যাক, যথা সময়েই ডিপফেক ভিডিও শনাক্ত করা সম্ভব হলো। কিন্তু এরপরও অনেকে বিশ্বাস করবে না যে, এটি ফেক। উদাহরণ হিসেবে তিনি ২০২৩ সালের সেপ্টেম্বরে স্লোভাকিয়ার নির্বাচনের সময় ফাঁস হওয়া একটি অডিও ক্লিপের কথা উল্লেখ করেন। যে ক্লিপে কয়েকজন রাজনীতিবিদকে নির্বাচনে জালিয়াতি করার বিষয়ে এক সাংবাদিকের সঙ্গে আলোচনা করতে শোনা যায়। পরে সেই রাজনীতিবিদ নির্বাচনে হেরে যান। অথচ সেই অডিও ক্লিপ তাঁর ছিলই না, যা পরে প্রমাণিত হয়।
রেনে দিরেস্তা বলছেন, ‘সাধারণত মানুষ ফ্যাক্টচেকারকে পছন্দ না করলে, তাঁর বা তাদের ফ্যাক্টচেকিংও পছন্দ না করে না। তারা ফ্যাক্টচেক আমলেই নিতে চায় না। সোজা কথায়, বিভ্রান্তি প্রশমনের জন্য কেবল প্রযুক্তি নয়, আরও অনেক বেশি কিছু প্রয়োজন।’
চলবে...
আমিল খানের ভ্যালেন্ট প্রজেক্ট দেখতে পেয়েছে, এই প্রক্রিয়ার আরও উন্নত পদ্ধতি ব্যবহৃত হয়েছে রাশিয়া থেকে ইউরোপে অপতথ্য ছড়ানোর ক্ষেত্রে। বিশেষ করে, ব্রিটেনে কট্টর ডানপন্থী কনটেন্ট ছড়ানোর আগে, স্প্রেডার অ্যাকাউন্টগুলো ব্রিটিশ রাজপরিবার সংক্রান্ত বিভিন্ন মুখরোচক গল্প প্রচার/প্রকাশ করে ফলোয়ারদের আকৃষ্ট করেছে। একটি নির্দিষ্ট পরিমাণ ফলোয়ার হয়ে যাওয়ার পর এই স্প্রেডার অ্যাকাউন্টগুলো ভোল পাল্টে ফেলে।
মাইক্রোসফটের থ্রেট ইন্টেলিজেন্স দেখতে পেয়েছে, চীনা স্টর্ম–১৩৭৬ এই নতুন বিতরণ পদ্ধতি অনুসরণ করেই হাওয়াইয়ের দাবানলের ব্যাপারে গুজব ছড়িয়েছিল। একই সঙ্গে, দক্ষিণ কোরিয়ার বিভিন্ন অ্যাকাউন্ট থেকে জাপান সরকারের সমালোচনাও করেছে। এমনকি, ২০২৩ সালের শেষ দিকে যুক্তরাষ্ট্রের কেন্টাকিতে ট্রেন লাইনচ্যুত হওয়ার পেছনেও ষড়যন্ত্র তত্ত্ব প্রচার করা হয়েছে এই চীনা প্ল্যাটফর্ম থেকে।
যখন অনেকগুলো সোশ্যাল মিডিয়া অ্যাকাউন্ট কোনো একটি বিষয়ে ঠিক একই ধরনের শব্দ বা শব্দবন্ধ ব্যবহার করে—তখন সেখান থেকে সিআইবি বা কো–অর্ডিনেটেড ইন–অথেনটিক বিহেভিয়র বা সমন্বিতভাবে অপতথ্য ছড়ানোর কৌশলকে সহজেই শনাক্ত করা সম্ভব হয়। যেমন, সামাজিক যোগাযোগমাধ্যমে কোনো একটি ন্যারেটিভ বা বয়ান ভাইরাল বা ‘ট্রেন্ডে’ পরিণত হওয়া নতুন কিছু নয়। কিন্তু যখন নির্দিষ্ট ওই ইস্যুতে বিশ্বের বিভিন্ন ভাষায় ও বিভিন্ন স্থান থেকে প্রায় একই ধরনের শব্দ ব্যবহার করে পোস্ট শেয়ার করা হয়, তখন বুঝতে হবে ‘ডাল মে কুচ কালা হ্যায়’!
এই অবস্থায় অপতথ্য নিয়ে কাজ করা পক্ষগুলোর জন্য সেগুলোর উৎস সন্ধানের বিষয়টি তুলনামূলক সহজ হয়। বিশেষ করে, যখন একাধিক অ্যাকাউন্ট থেকে একই ধরনের অপতথ্য শেয়ার করা হয়, তখন অপতথ্য শনাক্তকারী পক্ষগুলো বিভিন্ন অ্যাকাউন্ট থেকে যে নির্দিষ্ট একটি কনটেন্ট সৃষ্টি ও শেয়ার করা হয়েছে সেটির দিন–তারিখ ও ফলোয়ার সংখ্যা যাচাই বাছাই করে দেখতে পারে। সাধারণত, এসব স্প্রেডার অ্যাকাউন্ট হঠাৎ করে বিপুল পরিমাণ ভুয়া ফলোয়ার কিনে রাখে নিজেদের গ্রহণযোগ্যতা উপস্থাপনের জন্য।
কিন্তু নতুন যে পদ্ধতিতে বর্তমানে অপতথ্য ছড়ানো হচ্ছে, সেখানে সিডার ও স্প্রেডার অ্যাকাউন্ট শনাক্ত করা খুবই কঠিন। কারণ, সিডাররা একটি নির্দিষ্ট ন্যারেটিভ প্রচার করে। কিন্তু স্প্রেডাররা যেসব কনটেন্ট প্রচার করে, সেগুলোর সঙ্গে সিডারদের কনটেন্টের গুণগত তফাৎ থাকে।
ভ্যালেন্ট প্রজেক্ট এআই ব্যবহার করে এই সমস্যা সমাধানের চেষ্টা করেছে। প্রতিষ্ঠানটির নিজস্ব কৃত্রিম বুদ্ধিমত্তা সিস্টেম ‘আরিয়াডনে’ সামাজিক যোগাযোগমাধ্যম থেকে নির্দিষ্ট কোনো একটি ইস্যুর কনটেন্ট নিয়ে তা সূক্ষ্মভাবে যাচাইবাছাই করে দেখে। সেই কনটেন্টগুলো অস্বাভাবিক কিন্তু সমন্বিত কার্যক্রমের ওপর নজরদারি চালিয়ে সেগুলোর সাধারণ বয়ান ও মতাদর্শ শনাক্ত করে। এ বিষয়ে আমিল খান বলেন, ‘আগে যেখানে নির্দিষ্ট কী–ওয়ার্ড ধরে কাজ করা হতো, সেখানে এখন মতাদর্শিক দৃষ্টিভঙ্গি ধরে কাজ করা হয়, যা আমরা আগে কখনো করিনি।’
সামাজিক মাধ্যমে অপতথ্যের বিস্তার ঘটানো অ্যাকাউন্ট শনাক্ত করার আরও একটি উপায় বাতলেছে ওয়াশিংটনের ব্রুকিংস ইনস্টিটিউট। যুক্তরাষ্ট্রের পেনসিলভানিয়ার পিটসবার্গের কার্নেগি মেলন ইউনিভার্সিটির অর্থনীতির অধ্যাপক মারিয়াম সাইদি ও তাঁর সহকর্মীরা সামাজিক যোগাযোগমাধ্যম এক্স–এ ফারসি ভাষার ৬ কোটি ২০ লাখ টুইট পরীক্ষা করে দেখেছেন। ২০২২ সালের সেপ্টেম্বরে ইরানে সরকারবিরোধী আন্দোলনের সময়কার পোস্ট ছিল সেগুলো। মূলত, সে সময় কোন কোন অ্যাকাউন্ট অপতথ্যের স্প্রেডার হিসেবে কাজ করেছে তা এআইয়ের সহায়তায় শনাক্ত করার চেষ্টা চালিয়েছিলেন তাঁরা। মারিয়াম এবং তাঁর সহকর্মীরা দেখেছেন, এ ক্ষেত্রে স্প্রেডার অ্যাকাউন্টগুলো প্রথম দিকে সরকারবিরোধীদের পক্ষে ছিল। কিন্তু পরে আস্থা অর্জন করে সরকারের পক্ষে কনটেন্ট প্রচার করতে শুরু করে।
এ ধরনের অ্যাকাউন্টগুলোকে গবেষকেরা ‘প্রতারক’ বলে আখ্যা দিয়েছেন। সাধারণ বিবেচনায়ও তাঁরা কিছু স্প্রেডার অ্যাকাউন্ট শনাক্ত করেছিলেন। এরপরই মূলত নিজেদের তৈরি অ্যালগরিদম দিয়ে এ ধরনের সাদৃশ্যপূর্ণ বৈশিষ্ট্যের বিপুলসংখ্যক অ্যাকাউন্ট খুঁজে পান। অ্যাকাউন্টগুলোর পোস্ট করার ধরন, ফলোয়ারের সংখ্যা, নির্দিষ্ট হ্যাশট্যাগের ব্যবহার, অ্যাকাউন্টগুলো তৈরির দিন–তারিখ এবং অন্যান্য বিষয় শনাক্ত করেন। এরপর গবেষকেরা নেটওয়ার্ক অ্যানালাইসিসের মাধ্যমে প্রায় ৯৪ শতাংশ নির্ভুলতার সঙ্গে স্প্রেডার অ্যাকাউন্টগুলো শনাক্ত করেন। যেমন, একটি নির্দিষ্ট অ্যাকাউন্টের সঙ্গে অন্য অ্যাকাউন্টের কী ধরনের সম্পর্ক আছে সেগুলো তাঁরা এআইয়ের সাহায্যে খুব সহজেই বের করতে পারেন।
গবেষকেরা বলছেন, এই পদ্ধতিতে যেসব অ্যাকাউন্ট থেকে অপতথ্য ছড়ানোর আশঙ্কা আছে কিংবা যেসব অ্যাকাউন্ট অপতথ্য ছড়ায় তা সহজেই শনাক্ত করা সম্ভব। তাঁরা বলছেন, সামাজিক যোগাযোগমাধ্যমগুলো এই নেটওয়ার্ক অ্যানালাইসিস পদ্ধতি ব্যবহার করে একটি স্প্রেডার অ্যাকাউন্ট থেকে কী পরিমাণ প্রোপাগান্ডা ছড়ানো হয়েছে তা হিসাব করতে পারবে। এমনকি চাইলে প্ল্যাটফর্মগুলো তাদের ব্যবহারকারীদের কাছে এসব অ্যাকাউন্টের চরিত্র উন্মোচন করতে পারবে।
তবে গবেষকেরা এখনই স্বস্তির নিশ্বাস ফেলছেন না। তাঁরা বলছেন, এখনো এই প্রতারক শনাক্তকরণ অ্যালগরিদমের উন্নয়ন সম্ভব। বিশেষ করে, ন্যাচারাল ল্যাঙ্গুয়েজ প্রসেসিং এবং ডিপ লার্নিংয়ের সহায়তায় এই অ্যালগরিদমের উন্নতি আরও দ্রুত করা সম্ভব।
কোনো সন্দেহ নেই যে, গোয়েন্দা সংস্থা ও প্রযুক্তি প্রতিষ্ঠানগুলো এ ধরনের বিশ্লেষণ এরই মধ্যে করছে। তবে, তারা সাধারণত তাদের বিশ্লেষণের ডেটা অন্য কারও সঙ্গে শেয়ার করতে খুব একটা আগ্রহী নয়। যেমন, মেটা কেবল জানিয়েছে যে, তারা ব্যবহারকারীদের সুরক্ষা দিতে এর যেসব নীতিমালা আছে সেগুলো বাস্তবায়নে বহু বছর ধরে ‘ইনটিগ্রিটি সিস্টেমে’ এআই ব্যবহার করে আসছে। কিন্তু গবেষক ও নাগরিক সমাজের প্রতিনিধিরা বলছেন, সব ধরনের অপতথ্য স্বয়ংক্রিয়ভাবে শনাক্ত করার জন্য কোনো একক পদ্ধতি কাজে আসবে না।
তবে এআই একটি ভিন্ন উপায়ে অপতথ্য মোকাবিলায় সাহায্য করতে পারে। বিশেষ করে, বিভিন্ন পোস্ট, নিবন্ধ, অডিও ক্লিপ বা ভিডিও বিশ্লেষণের মাধ্যমে প্রতারণামূলক কনটেন্ট সরাসরি চিহ্নিত করতে পারে এআই। যুক্তরাষ্ট্রের ডিপার্টমেন্ট অব ডিফেন্সের বিশেষ প্রকল্প—গবেষণা শাখা (ডারপা) ‘সিম্যান্টিক ফরেনসিকস’—প্রোগ্রামের অংশ হিসেবে বিভিন্ন জাল বা বিকৃত বৈশিষ্ট্যযুক্ত কনটেন্ট শনাক্ত করার গবেষণায় অর্থায়ন করছে।
চলতি বছরের মার্চে ডারপা ওপেন সোর্স রিপোজিটরি প্রকাশ করেছে। যেখানে ডাউনলোডযোগ্য সোর্স কোডের লিংকসহ ‘ডিপফেক’ শনাক্তকরণের একটি অ্যালগরিদম রয়েছে। এর লক্ষ্য হলো, একাডেমিক ও বাণিজ্যিক ব্যবহারকারীদের অপতথ্য ছড়াতে ভূমিকা রাখা অ্যাকাউন্টগুলোকে শনাক্ত করার প্রয়োজনীয় টুলগুলোর সমন্বয় করতে, উন্নত করতে উৎসাহিত করা।
এ বিষয়ে ডারপার ড. উইল করভি বলেন, সাধারণত অপতথ্য শনাক্তকরণে একক কোনো টুল বিশ্বাসযোগ্য নাও হতে পারে। কিন্তু অনেকগুলো টুল একত্র করলে অপতথ্য শনাক্ত করার ক্ষেত্রে নির্ভুলতা বাড়তে পারে। উদাহরণ হিসেবে বলা যেতে পারে, কোনো একজন রাজনীতিবিদের ফাঁস হওয়া ভিডিও বা অডিও আসল কিনা—তা যাচাই করা কঠিন। কারণ, সেই ব্যক্তির কাছ থেকে প্রকৃত তথ্য পাওয়া নাও যেতে পারে। কিন্তু সংশ্লিষ্ট ব্যক্তির প্রামাণিক তথ্য ব্যবহার করে এআই মডেলকে প্রশিক্ষণ দেওয়া সম্ভব।
এআইকে ওই ব্যক্তির নির্দিষ্ট বৈশিষ্ট্য শিখিয়ে—যেমন কথা বলার সময় ব্যক্তি মাথা নাড়ায় কিনা, তাঁর মুখের নড়াচড়ার ধরন কেমন ইত্যাদি—এরপর সত্যতা যাচাইয়ের জন্য সন্দেহজনক ডিপফেক কনটেন্ট বিশ্লেষণে ব্যবহার করা যেতে পারে। আরও ভালো ফল পাওয়ার জন্য ব্যক্তির হার্টবিট পর্যন্ত রেকর্ড করা যেতে পারে।
এ বিষয়ে উল কার্ভি বলেন, এটি অন্যান্য কৌশলগুলোর সঙ্গে যুক্ত করা যেতে পারে। কারণ ভিডিও থেকে হার্টবিট শনাক্ত করা সম্ভব এবং প্রতিটি ব্যক্তির ক্ষেত্রে এটি জাল করা কঠিন। এ ছাড়া, সংশ্লিষ্ট ব্যক্তির কপালের ভাঁজ বা কুঞ্চন পর্যন্ত রেকর্ড করে ডিপফেকের সঙ্গে মিলিয়ে পাঠ করা যেতে পারে। যা নির্ভুলতা আরও বাড়াবে।
এমন সমন্বিত উদ্যোগের ক্ষেত্রে ডারপাই একমাত্র জায়গা নয়। অ্যালেন ইনস্টিটিউট ফর আর্টিফিশিয়াল ইন্টেলিজেন্সের সাবেক প্রধান ও কম্পিউটার বিজ্ঞানী ওরেন ইটিজিওনি ট্রুমিডিয়া নামে একটি সংস্থা প্রতিষ্ঠা করেছেন। চলতি বছরের জানুয়ারিতে অপতথ্য শনাক্তকরণ টুলগুলোতে সবার প্রবেশাধিকার প্রসারিত করতে তিনি এই উদ্যোগ নেন। গত ২ এপ্রিল ট্রুমিডিয়া একটি ওয়েবসাইট উন্মোচন করেছে যা বিনা মূল্যের ওয়েব ইন্টারফেসের মাধ্যমে ওপেন–সোর্স ও বাণিজ্যিক টুলগুলোকে ব্যবহার করে সিনথেটিক বা ম্যানিপুলেটেড ছবি, ভিডিও ও অডিও শনাক্ত করার জন্য একটি ওয়ান–স্টপ পরিষেবা দেওয়া শুরু করেছে।
মেটার হেড অব গ্লোবাল অ্যাফেয়ার্স নিক ক্লেগ বলছেন, নেতিবাচক কনটেন্টের কথা এলে এআই একই সঙ্গে তলোয়ার এবং ঢাল হিসেবেই কাজ করে। অনেকটা যেন, ‘সর্প হইয়া দংশন করও, ওঝা হইয়া ঝাড়ো’–এর মতো। ড. উইল কার্ভি বলছেন, তিনি আশাবাদী যে, এআই–চালিত প্রতিরক্ষামূলক শনাক্তকরণ টুলগুলো অপতথ্য উৎপাদক টুলগুলোর চেয়ে এগিয়ে থাকতে পারে।
তবে হতাশাবাদী লোকও আছেন। যেমন স্ট্যানফোর্ড ইন্টারনেট অবজারভেটরিতে ‘তথ্যপ্রবাহ অধ্যয়নের’ গবেষক রেনে দিরেস্তা বলেন, আমি খুব একটা আত্মবিশ্বাসী নই। বর্তমানের শনাক্তকরণ টুলগুলো একটি নিয়ন্ত্রিত পরিবেশে ভালো কাজ করতে পারে। মূলত, যখন এই টুলগুলোর হাতে অনেক বেশি সময় থাকে তখন ভালো ফলাফল পাওয়া যায়। কিন্তু ঘটনা ঘটে যাওয়ার সঙ্গে সঙ্গে এই টুলগুলোকে দ্রুত কাজ করতে দিলে তা থেকে খুব দ্রুত ফল আসে না।
রেনে দিরেস্তার মতে, আরও গভীর সংকট আছে। সেটি হলো মানুষের মনস্তত্ত্ব। তিনি বলছেন, ধরা যাক, যথা সময়েই ডিপফেক ভিডিও শনাক্ত করা সম্ভব হলো। কিন্তু এরপরও অনেকে বিশ্বাস করবে না যে, এটি ফেক। উদাহরণ হিসেবে তিনি ২০২৩ সালের সেপ্টেম্বরে স্লোভাকিয়ার নির্বাচনের সময় ফাঁস হওয়া একটি অডিও ক্লিপের কথা উল্লেখ করেন। যে ক্লিপে কয়েকজন রাজনীতিবিদকে নির্বাচনে জালিয়াতি করার বিষয়ে এক সাংবাদিকের সঙ্গে আলোচনা করতে শোনা যায়। পরে সেই রাজনীতিবিদ নির্বাচনে হেরে যান। অথচ সেই অডিও ক্লিপ তাঁর ছিলই না, যা পরে প্রমাণিত হয়।
রেনে দিরেস্তা বলছেন, ‘সাধারণত মানুষ ফ্যাক্টচেকারকে পছন্দ না করলে, তাঁর বা তাদের ফ্যাক্টচেকিংও পছন্দ না করে না। তারা ফ্যাক্টচেক আমলেই নিতে চায় না। সোজা কথায়, বিভ্রান্তি প্রশমনের জন্য কেবল প্রযুক্তি নয়, আরও অনেক বেশি কিছু প্রয়োজন।’
চলবে...
বাংলাদেশে এক হিন্দু নারীকে গণধর্ষণ করা হয়েছে দাবিতে মাইক্রোব্লগিং সাইট এক্সে ১৮ সেকেন্ডের ভিডিও ঘুরে বেড়াচ্ছে। এতে দেখা যাচ্ছে, রক্তাক্ত এক নারীকে বেশ কয়েকজন পুলিশ সদস্য কোথাও নিয়ে যাচ্ছেন। মঙ্গলবার (১২ নভেম্বর) দীপক শর্মা নামের একটি ভারতীয় এক্স হ্যান্ডল থেকে ভিডিওটি টুইট করে দাবি করা হয়, ‘ভিড
১ দিন আগেআওয়ামী লীগের বন ও পরিবেশ বিষয়ক উপকমিটির সদস্য সাবরিনা চৌধুরী নিজের ভেরিফায়েড ফেসবুক পেজ থেকে গতকাল মঙ্গলবার দিবাগত রাত সাড়ে ১২টায় এমন দাবিতে স্ক্রিনশটটি পোস্ট করে লেখেন, ‘Sabnam Faria কিছুক্ষণ আগে একটা পোস্ট করলেন ৫ মিনিট পর ডিলিট করে দিলেন।’
২ দিন আগেএলিস থমাস নামের এক ওপেন সোর্স ইন্টেলিজেন্স গবেষকের বরাত দিয়ে জার্মান সংবাদমাধ্যম ডয়েচে ভেলে জানিয়েছে, ট্রাম্পকে যুক্তরাষ্ট্রের প্রেসিডেন্ট হতে সাহায্য করেছে এআই পরিচালিত বট নেটওয়ার্ক।
৩ দিন আগেগত বৃহস্পতিবার (৭ নভেম্বর) ‘প্রবাসী জীবন’ নামের একটি ফেসবুক পেজ থেকে ভিডিওটি পোস্ট করা হয়। পোস্টটি আজ মঙ্গলবার বিকেল সাড়ে ৩টা পর্যন্ত পাঁচ শতাধিক শেয়ার হয়েছে। রিয়েকশন পড়েছে ৪ হাজারের বেশি। ভিডিওটি দেখা হয়েছে ৪২ হাজার বার।
৩ দিন আগে