আধুনিক প্রযুক্তির এক ভয়ঙ্কর অবদান হলো ডিপফেক। এর ইতিবাচক ও নেতিবাচক দুই ধরনের ব্যবহারই রয়েছে। তবে নেতিবাচক ব্যবহারের কারণে প্রযুক্তি খাতে বিশেষ করে কৃত্রিম বুদ্ধিমত্তার জগতে এটি নিয়ে শঙ্কা তৈরি হয়েছে। এটি একটি কৃত্রিম বুদ্ধিমত্তা চালিত প্রযুক্তি, যা মানুষের চিত্র ও কণ্ঠস্বর পরিবর্তন করে ভুয়া ভিডিও তৈরি করে। এই ভিডিওগুলো এতোটাই নিখুঁত হয় যে, সত্য ও মিথ্যার মধ্যে পার্থক্য করা প্রায় অসম্ভব।
এই প্রযুক্তির ভয়াবহতা আমাদের সামাজিক, রাজনৈতিক ও ব্যক্তিগত জীবনে ব্যাপক ক্ষতি করার আশঙ্কা রয়েছে। এটি বিভ্রান্তি, বিদ্বেষ, সামাজিক অস্থিরতা ও রাজনৈতিক হানাহানির কারণও হতে পারে। এই ডিপফেক ব্যবহার করে বারাক ওবামা, মার্ক জুকারবার্গকেও হয়রানীর স্বীকার হতে হয়েছিল। এই ডিপফেক যেকোনো ব্যক্তি, এনজিও, ব্যক্তিগত ব্যবসা ও সরকারি সংস্থাকে ক্ষতির সম্মুখীন করতে পারে, যা ভুক্তভোগীর জন্য খুবই ভয়ংকর এবং বিব্রতকর।
ডিপফেক প্রযুক্তি নকল ইভেন্টের ছবি তৈরি করতে ডিপ লার্নিং নামে একটি কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি ব্যবহার করে৷ ডিপফেক প্রযুক্তি দ্বারা তৈরি করা নানাবিধ কন্টেন্ট নিয়ে বিভিন্ন সময়ে ইন্টারনেটে ব্যপক আলোচনা দেখা যায়।
মাইক্রোসফটের প্রেসিডেন্ট ব্র্যাড স্মিথের মতে, এআই খাতে ডিপফেক বড় ধরনের হুমকি। কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি নিয়ন্ত্রণে পদক্ষেপ গ্রহণের বিষয়ে ওয়াশিংটনে এক বক্তব্যে তিনি এ কথা জানান। ওপেনএআইর চ্যাটজিপিটির আগমন এ খাতকে দ্রুত এগিয়ে নিয়ে যাচ্ছে। তাই কোন ছবি-ভিডিও আসল আর কোনগুলো নকল বা কৃত্রিম বুদ্ধিমত্তার মাধ্যমে তৈরি করা হয়েছে তা শনাক্তে ব্যবস্থা গ্রহণের কথা জানান ব্র্যাড স্মিথ। খবর রয়টার্স।
ডিপফেক প্রযুক্তির নমুনা (উদাহরণ হিসেবে তৈরি করা)-
১. ভিডিও শেয়ারিং সাইট ইউটিউবে “BuzzFeedVideo” চ্যানেল থেকে ২০১৮ সালের ১৭ এপ্রিল “You Won’t Believe What Obama Says In This Video!” শিরোনামে একটি ভিডিও প্রকাশ করা হয়। ভিডিওতে দেখা যায়, সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামা ডোনাল্ড ট্রাম্পকে “একজন পরিপূর্ণ বোকা বা অযোগ্য ব্যক্তি বলেন।
২. ভিডিও শেয়ারিং সাইট ইউটিউবে “Larry Yaeger” নামক একটি চ্যানেল থেকে ২০১৯ সালের ১৪-ই জুন “Zuckerberg deepfake SPECTRE video” শিরোনামে একটি ভিডিও প্রকাশ করা হয়। ভিডিওতে দেখা যায়, মার্ক জুকারবার্গ “বিলিয়ন লোকের চুরি করা ডেটার সম্পূর্ণ নিয়ন্ত্রণ” নিয়ে বড়াই করছেন।
৩. ভিডিও শেয়ারিং সাইট ইউটিউবে “Eating Things” নামক একটি চ্যানেল থেকে ২০১৯ সালের ১৩-ই জুন “BREAKING: JON SNOW FINALLY APOLOGIZED FOR SEASON 8” শিরোনামে একটি ভিডিও প্রকাশ করা হয়। ভিডিওতে দেখা যায়, গেম অফ থ্রোনসের হতাশাজনক সমাপ্তির জন্য জন্য স্নো “ক্ষমা চাচ্ছে।
৪. দ্য টেলিগ্রাফ এর ইউটিউব চ্যানেলে গত ১৭ মার্চ একটি ডিপফেক উদাহরণের ভিডিও প্রকাশ করে। ভিডিওতে দেখা যায় ইউক্রেনের প্রেসিডেন্ট ভ্লাদিমির জেলনস্কি তাদের জনগণ ও যুদ্ধে অংশগ্রহণকারী বাহিনীকে অস্ত্র নামিয়ে রাশিয়ার কাছে আত্মসমর্পণ করার নির্দেশ দেন।
ডিপফেক প্রযুক্তি কী-
ডিপফেক হলো বাস্তবসম্মত দেখতে কিন্তু নকল বা কিছুটা পরিবর্তিত কন্টেন্ট যা ভিডিও বা অডিওর উপাদান সম্পাদনা করে তৈরি করা হয়। ডিপফেক ভিডিওতে কৃত্রিম বুদ্ধিমত্তার (AI) প্রযুক্তি ব্যবহার করে একজন ব্যক্তির মুখের অবয়ব বা ভয়েসকে অন্য কারোর সাথে বিশ্বাসযোগ্যভাবে প্রতিস্থাপন করা হয়।
ডিপফেক প্রযুক্তির সহায়তায় একজন ব্যক্তির এমন কিছু ভিডিও বা অডিও কন্টেন্ট তৈরি করা সম্ভব যা তিনি নিজে বলেননি বা করেননি।
এক্ষেত্রে টার্গেট ব্যক্তি একজন বিখ্যাত ব্যক্তিত্ব হতে পারে, যেমন সেলিব্রিটি, রাজনীতিবিদ কিংবা ব্যবসার মালিক। ডিপফেক প্রযুক্তি কারও সম্পর্কে মিথ্যা তথ্য ছড়াতেও ব্যবহার করা হয়।
ডিপফেক প্রযুক্তির উৎপত্তি-
ব্যবহারকারীগণ ডিপফেক প্রযুক্তি সম্পর্কে সচেতন হতে শুরু করে যখন “ডিপফেকস” নামে একটি রেডডিট ব্যবহারকারী একাউন্ট পোস্ট করেছিল যে তিনি একটি মেশিন লার্নিং (এমএল) অ্যালগরিদম তৈরি করেছেন যা সেলিব্রিটিদের মুখকে নির্বিঘ্নে পর্ন ভিডিওতে রুপান্তর করতে পারে৷ এবং সেই পোস্টে ডিপফেক এর উদাহরণ দেয়া ছিল এবং থ্রেডটি (অনেকগুলো পোস্টের সমন্বয়) শীঘ্রই খুব জনপ্রিয় হয়ে ওঠে। পরবর্তীতে এই পোস্টটি বন্ধ করতে হয়েছিল কিন্তু ততদিনে প্রযুক্তিটি সুপরিচিত এবং সহজলভ্য হয়ে ওঠে। পরবর্তীতে ব্যবহারকারীগণ এটি ব্যবহার করে নকল ভিডিও তৈরি করতে শুরু করেছিল, যার বেশিরভাগই রাজনীতিবিদ এবং অভিনেতাদের ভিডিও।
তবে ভিডিও ম্যানিপুলেট করার ধারণা নতুন নয়। ১৯৯০ এর দশকে, কিছু বিশ্ববিদ্যালয় কম্পিউটার ভিশনে (মানুষ এবং পশুরা যেভাবে চিত্র বুঝতে পারে এবং এর সাথে আকার, রঙ এবং টেক্সচারকে শ্রেণীবদ্ধ করার প্রযুক্তি) উল্লেখযোগ্য একাডেমিক গবেষণা পরিচালনা করছে। এই সময়ে কৃত্রিম বুদ্ধিমত্তা (AI) এবং মেশিন লার্নিং (ML) ব্যবহার করে একজন ব্যক্তির কথা বলার ভিডিও ফুটেজ পরিবর্তন করতে এবং তা একটি ভিন্ন অডিওর সাথে একত্রিত করার প্রচেষ্টা চালানো হয়। ১৯৯৭ সালের ভিডিও রিরাইট প্রোগ্রাম এই প্রযুক্তিটি বাস্তবে দেখিয়েছে।
ডিপফেক এর বিবর্তন-
১৯৯৭: ভিডিও রিরাইট প্রোগ্রাম
ডিপফেক ভিডিওর প্রথম উদ্ভাবনটি ১৯৯৭ সালে ভিডিও রিরাইট প্রোগ্রামের মাধ্যমে শুরু হয়েছিল৷ সফ্টওয়্যারটি এই ধরণের প্রথম কয়েকটি সফ্টওয়্যারের মধ্যে একটি যা একজন ব্যক্তির কথা বলার ভিডিওকে সংশোধন (মোডিফাই) করতে সক্ষম হয়েছিল৷ এটি আসল ভিডিওতে একটি অডিও ওভারলে (overlay) বসিয়ে, আসল ভিডিওর ব্যক্তির দ্বারা লিপ-সিঙ্ক এর মাধ্যমে নতুন ধরণের শব্দ বলাতে সক্ষম হয়েছিল৷
এছাড়াও এটি (ভিডিও রিরাইট) এই ধরণের প্রথম সফ্টওয়্যার যা একটি ভিডিওতে “ভুয়া অডিও” যুক্ত করতে পারে। সফ্টওয়্যারটির জন্য ব্যবহৃত কৌশলটি ছিল মেশিন লার্নিংয়ের উপর ভিত্তি করে। মূলত, কৌশলটি সিনেমায় ডাবিংয়ের জন্য ব্যবহার করা হয়েছিল, যা ভিডিও রিরাইট সফ্টওয়্যার টুলের স্বয়ংক্রিয় ফিচারের কারণে অত্যন্ত দ্রুত করা যেত।
বিংশ শতকের শুরুর দিকে: একাডেমিক গবেষণা
মাত্র কয়েক বছর আগে পর্যন্ত, কৌশলটি মূলত একাডেমিক বিশ্বে এআই এবং মেশিন লার্নিং সম্পর্কে শেখার উপায় হিসাবে ব্যবহৃত হত। পরবর্তীতে প্রযুক্তিটি নিয়ে ব্যপক একাডেমিক গবেষণা করা হয়। ডিপফেক সম্পর্কিত একাডেমিক গবেষণা মুলত কম্পিউটার ভিশন নিয়ে করা হয়েছে, যা কম্পিউটার বিজ্ঞানের-ই একটি উপশাখা।
২০১৭: ‘ডিপফেক’ শব্দটির প্রচলন
সাম্প্রতিক বছরগুলোতে “ডিপফেক” বিষয়টি খুবই দ্রুত ছড়িয়ে পড়েছে। ২০১৭ সালে, “ডিপফেক” শব্দটি একই নামের একটি রেডডিট ব্যবহারকারী দ্বারা তৈরি করা হয়েছিল।
ডিপফেক শব্দটি “ডিপ লার্নিং” এবং “ফেক” শব্দের সংমিশ্রণ, অর্থাত্ নকল মিডিয়া কন্টেন্টস। ডিপফেক-এর প্রয়োগ প্রাপ্তবয়স্কদের কন্টেন্টে, বিনোদন জগতে, রাজনীতি, পাশাপাশি সমাজে জনপ্রিয় আরও অনেক ক্ষেত্রে বৃদ্ধি পায়।
ডিপফেক কিভাবে কাজ করে-
মেশিন লার্নিং অ্যালগরিদম ব্যবহার করে ডিপফেক সফ্টওয়্যার তৈরি করার জন্য বিভিন্ন কৌশল রয়েছে। অ্যালগরিদম ডেটা বা তথ্য ইনপুটের উপর ভিত্তি করে নতুন কন্টেন্ট তৈরি করে। যদি একটি নতুন মুখ তৈরি বা একজন ব্যক্তির মুখের একটি অংশ প্রতিস্থাপন করার জন্য টাস্ক দেয়া হয়, সেক্ষত্রে অ্যালগরিদমকে প্রথমে প্রশিক্ষিত করতে হবে, তাহলে অ্যালগরিদম সে কাজটি করে দেয়। এভাবেই ডিপফেক তৈরি করা হয়। প্রাথমিকভাবে এগুলো অটোএনকোডার এবং কখনও কখনও জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্কের (GAN) উপর ভিত্তি করে করা হয়।
এছাড়াও, ডিপফেক কন্টেন্ট দুটি প্রতিযোগী AI অ্যালগরিদম ব্যবহার করে তৈরি করা হয়। একটিকে “জেনারেটর” বলা হয় এবং অন্যটিকে “ডিসক্রিমিনেটর” বলা হয়৷ জেনারেটর, যেটি নকল বা পরিবর্তিত কন্টেন্ট তৈরি করে। আর ডিসক্রিমিনেটর; তৈরি করা কন্টেন্টটি কতখানি আসল কন্টেন্ট-এর মতো হয়েছে তা নির্ধারণ করতে ব্যবহৃত হয়৷ একসাথে, জেনারেটর এবং ডিসক্রিমিনেটর এর সমন্বয়কে জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) বলা হয়।
ডিপফেক এর প্রভাব কী এবং কীভাবে এই প্রযুক্তি আমাদের সমাজকে প্রভাবিত করে
আন্তর্জাতিক গণমাধ্যম দ্য গার্ডিয়ানের এক প্রতিবেদন অনুযায়ী, এআই ফার্ম ডিপট্রেস সেপ্টেম্বর ২০১৯ সালে অনলাইনে ১৫,০০০ ডিপফেক ভিডিও খুঁজে পেয়েছে, যা নয় মাসের মধ্যে প্রায় দ্বিগুণ। আশ্চার্যজনক হলেও সত্য যে, এর মধ্যে ৯৬% পর্নোগ্রাফিক ভিডিও এবং এর ৯৯% হলো নারী সেলিব্রিটিদের চেহারা পর্ন তারকাদের চেহারা দ্বারা পরিবর্তিত করা।
যেহেতু নতুন কৌশলগুলো অদক্ষ ব্যক্তিদেরও কয়েকটি ছবি দিয়ে ডিপফেক তৈরি করার সুযোগ দেয়, ফলে রিভেঞ্জ পর্ন-কে (প্রতিশোধ নেয়ার জন্য ব্যবহৃত) উত্সাহিত করতে ফেইক ভিডিও সেলিব্রিটি জগতের বাইরেও ছড়িয়ে পড়ার সম্ভাবনা রয়েছে৷ বোস্টন ইউনিভার্সিটির আইনের অধ্যাপক ড্যানিয়েল সিট্রন বলেছেন: “ডিপফেক প্রযুক্তি নারীদের বিরুদ্ধে অস্ত্র হিসেবে তৈরি করা হচ্ছে।” এই প্রযুক্তিতে পর্নের বাইরেও প্রচুর মিথ্যা, ফাঁকি, ব্যঙ্গ এবং অনিষ্টের সুযোগ রয়েছে।
ডিপফেকের সাথে জড়িত জালিয়াতির প্রথম ঘটনাগুলির মধ্যে একটি যুক্তরাজ্যে ঘটেছে। স্ক্যামাররা যুক্তরাজ্য-ভিত্তিক একটি এনার্জি কোম্পানির সিইওকে তার জার্মান বসের ভয়েস নকল করে তাকে একটি তৃতীয় পক্ষের ব্যাঙ্ক অ্যাকাউন্টে €২২০,০০০ (ইউরো) স্থানান্তর করার নির্দেশ দেয়৷
ডিপফেকের ফলাফল খুবই ভয়ানক হতে পারে। বিশেষ করে পাবলিক ফিগার এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়কর পরিণতি হতে পারে। এর প্রভাবে ক্যারিয়ার এবং জীবন আপস করা হতে পারে, কিছুক্ষেত্রে সম্পূর্ণরূপে ধ্বংস হয়েও যেতে পারে। এছাড়াও আন্তর্জাতিক ঘটনা এমনকি যুদ্ধ শুরু করার জন্য বিশ্ব নেতাদের নকল ভিডিও ব্যবহার করতে পারে। এই প্রযুক্তি একজন ব্যক্তির খ্যাতি ক্ষুন্ন করতে পারে বা কাউকে দিয়ে অপ্রয়োজনীয় কিছু বলাতে বা করাতে পারে (ভার্চুয়ালে)। এটি স্ক্যামারদের একটি নিখুঁত অস্ত্র।
ডিপফেক প্রযুক্তি ব্যবহারের উদাহরণ-
নকল পর্নো ভিডিও দিয়ে ডিপফেকের বিস্তার শুরু হয়। অনেক মহিলা সেলিব্রিটি ডিপফেক পর্নের শিকার হয়েছেন। তাদের মধ্যে ছিলেন ডেইজি রিডলি, জেনিফার লরেন্স, এমা ওয়াটসন এবং গ্যাল গ্যাডট। বিষয়টি মিশেল ওবামা, ইভানকা ট্রাম্প এবং কেট মিডলটনের মতো বিভিন্ন দেশের নেতাদের সাথে যুক্ত নারীদেরও প্রভাবিত করেছে। ২০০৯ সালে DeepNude নামে একটি ডেস্কটপ অ্যাপ্লিকেশন প্রকাশিত হয়েছিল। এটি ব্যক্তির পোশাক অপসারণ করতে সক্ষম ছিল। পরবর্তীতে, এটি ইন্টারনেট থেকে সরিয়ে নেয়া হয়।
ডিপফেক দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলো রাজনীতিবিদরা। আমেরিকার সাবেক প্রেসিডেন্ট ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ভিডিও ছিল। অন্য একটি ভিডিওতে, ন্যান্সি পেলোসির বক্তৃতা সম্পাদনা করা হয়েছিল যাতে দর্শকরা বিশ্বাস করেন যে তিনি মাতাল ছিলেন (শ্যালোফেক)। অন্য একটি ভিডিওতে প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা গেছে। দক্ষিণ কোরিয়ার চ্যানেল এমবিএন তার নিউজ অ্যাঙ্কর প্রতিস্থাপন করতে ডিপফেক ব্যবহার করেছে।
ব্ল্যাকমেইল
পেনসিলভানিয়ায় রাফায়েলা স্পোন তার মেয়ের উঠতি প্রতিদ্বন্দ্বীদের নির্মূল করার জন্য একটি চিয়ারলিডিং গ্রুপের সদস্যদের নগ্ন, মদ্যপান এবং ধূমপানের ডিপফেক ভিডিও শেয়ার করেছিলেন। সৌভাগ্যবশত, ভুক্তভোগীদের পরিবার পুলিশের সাথে যোগাযোগ করে এবং তার পরিকল্পনা ভেস্তে যায়।
রাজনৈতিক
২০১৯ সালে, MIT-এর মিডিয়া শিল্পী ফ্রান্সেস্কা প্যানেটা এবং হ্যালসি বারগান্ড প্রাক্তন মার্কিন প্রেসিডেন্ট রিচার্ড নিক্সন অভিনীত একটি ডিপফেক ভিডিও তৈরি করেন। এই ভিডিওতে, নিক্সন অ্যাপোলো-১১ প্রোগ্রামের ব্যর্থতা ঘোষণা করেছিলেন, এই বলে যে ক্রুদের কেউই চাঁদ থেকে ফিরে আসেনি। রিচার্ড নিক্সনের শুধুমাত্র বক্তব্যটুকু ছিল, ভিডিওটি পরে তৈরি করে সংযুক্ত করে দেয়া হয়েছিল।
শিল্পে
রুশ গবেষকরা দা ভিঞ্চির মোনালিসার সাথে এই কাজটি করেছেন। ফ্লোরিডার ডালি মিউজিয়ামে দর্শকদের আকৃষ্ট করার জন্য আর্কাইভাল ভিডিও ফুটেজ পুনরায় তৈরি করেছে।
অভিনয়ে
রগ ওয়ান: এ স্টার ওয়ার্স স্টোরিতে, প্রিন্সেস লিয়া এবং গ্র্যান্ড মফ তারকিনের মুখগুলিকে পুনরায় তৈরি করতে ডিপফেক ব্যবহার করা হয়েছিল।
সিনেমায়
ডিজনি রিসার্চ স্টুডিও তার নিজস্ব ডিপফেক ভিজ্যুয়াল ইফেক্ট প্রযুক্তি নিয়ে কাজ করছে। এটি কাঙ্ক্ষিত ব্যক্তি প্রাপ্তির জন্য ব্যয় করা সময় এবং আর্থিক ব্যয়কে উল্লেখযোগ্যভাবে হ্রাস করবে। উপরে উল্লিখিত স্টার ওয়ার্স মুভিতে এই একই প্রযুক্তি ব্যবহার করা হয়েছে।
সামাজিক মাধ্যমে
২০১৬ সাল থেকে স্ন্যাপচ্যাটে ফেস-সোয়াপিং ক্যামেরা বৈশিষ্ট্য রয়েছে। TikTok এমন একটি কৌশল গ্রহণ করেছে যা ব্যবহারকারীদের ভিডিওগুলিতে মুখ অদলবদল করতে দেয়।
সক পাপেটস-এ
২০১৭ সালে একদল গবেষক এবং উদ্যোক্তা সিন্থেসিয়া প্রতিষ্ঠা করেন। এটি একটি এআই-চালিত সফ্টওয়্যার যা সিন্থেটিক মিডিয়ার জন্য অডিওভিজ্যুয়াল সামগ্রী তৈরি করতে সক্ষম। এটি তার ক্লায়েন্টদের কাল্পনিক চরিত্রের সাথে বাস্তবসম্মত ভিডিও তৈরি করতে দেয়।
ডিপফেক সম্পর্কিত আইন
যেহেতু ডিপফেক শুধুমাত্র গত কয়েক বছরে দ্রুত গতিতে ছড়িয়ে পড়তে শুরু করেছে, তাই এর প্রয়োগ সংক্রান্ত আইন এখনও সবদেশে নেই। অনেক দেশে, এটি একেবারেই নিয়ন্ত্রণ করা হয় না। যেসব দেশে ডিপফেক ব্যবহারে আইন আছে তার মধ্যে একটি হলো চীন। চীনা সাইবারস্পেস প্রশাসন ঘোষণা করেছে যে ডিপফেক ব্যবহার করে তৈরি ভুয়া খবর অবৈধ। মার্কিন যুক্তরাষ্ট্রে, প্রায় সব রাজ্যেই ডিপফেক পর্ন সম্পর্কিত আইন রয়েছে। অন্য একটি বিল-এ (আইন) ডিপ ফেক বিষয়বস্তুকে নিষিদ্ধ করা হয়েছে যা পাবলিক অফিসের প্রার্থীদের প্রভাবিত করে।
ক্যালিফোর্নিয়া ২০১৯ সাল থেকে ডিপফেক ডিস্ট্রিবিউশনকে অবৈধ করে দিয়েছে। কিন্তু রাজনীতিবিদরা স্বীকার করেছেন যে উল্লিখিত আইন (অর্থাৎ, AB-৭৩০) বাস্তবায়ন করা কঠিন। AB-৭৩০ আইন হলোঃ নির্বাচনের ৬০ দিনের মধ্যে রাজনীতিবিদদের ডক্টরেটেড ভিডিও, ছবি বা অডিও ফাইল প্রচার বেআইনি।
ডিপফেইক ভিডিও যাচাইয়ের উপায়-
সময়ের সাথে সাথে ডিপফেক ভিডিও শনাক্ত করার উপায়ও আবিষ্কার হয়েছে। খালি চোখে সাধারণ মানের ডিপফেক ভিডিওগুলো শনাক্ত করা এখনও সম্ভব হতে পারে। অস্বাভাবিক মুখভঙ্গি, চোখের পাতার অস্বাভাবিক নড়াচড়া কিংবা মাথার অস্বাভাবিক গতিবিধি বা নড়াচড়া, অবাস্তব ত্বকের রঙ বা ত্বকের অস্বাভাবিক পরিবর্তন; ঝাঁকুনি, ঠোঁট নড়ার সাথে কথার কম মিল, ব্যাকগ্রাউন্ডের চেয়ে ব্যক্তির মুখ অস্পষ্ট, সাবজেক্টে আলো সমস্যা, ফ্রেমে অতিরিক্ত পিক্সেল ইত্যাদি (তথা ক্রিটিকাল থিংকিং বা যুক্তিনির্ভর চিন্তাশীলতা) দেখে প্রাথমিকভাবে ডিপফেক ভিডিও শনাক্ত করা যায়। এছাড়াও প্রযুক্তিগত বিভিন্ন টুলস ব্যবহার করে অনেক ক্ষেত্রেই ডিপফেক ভিডিও যাচাই করা যায়। সবার ব্যবহারের জন্য সরাসরি উন্মুক্ত টুলসের ব্যাপারে না জানা গেলেও কিছু প্রযুক্তি প্রতিষ্ঠানের অভ্যন্তরীণ কিছু টুলস রয়েছে যার দ্বারা ডিপফেক শনাক্ত করা যায়। এছাড়াও শনাক্তের জন্য নতুন নতুন টুলস তৈরির জন্য গবেষণা ও চেষ্টা চলছে।
যদিও অডিও ম্যানিপুলেশন, অর্থ্যাৎ শব্দ নিয়ে কারসাজি’র ব্যাপারেও আলোচনা হচ্ছে তবে অধিকাংশ ক্ষেত্রেই ডিপফেক ভিডিও ফরম্যাটে হয়। তাই ডিপফেক যাচাই করার ক্ষেত্রে ভিডিও থেকে সবচেয়ে উপযুক্ত বা বিভিন্ন সময়ের ছবি নিয়ে রিভার্স ইমেজ সার্চ টুল ব্যবহার করে যাচাই করা যেতে পারে। ছবির ক্ষেত্রে ফটো মেটাডেটা কিংবা ভিডিও মেটাডেটা টুলস ব্যবহার করা হয়। সাধারন ভিডিওর ক্ষেত্রে ইনভিড (inVid) ও ইউটিউব ভিডিওর ক্ষেত্রে অ্যামনেস্টি ইন্টারন্যাশনাল এর “ইউটিউব ডেটা ভিউয়ার” ব্যবহার করা যেতে পারে।
জার্মানির মিউনিখের ভিজ্যুয়াল কম্পিউটিং ল্যাবের একটি দল তৈরি করেছে ফেস ফরেনসিকস্ টুলস। প্রোগ্রামটি র’-ফরম্যাট (যে ফরম্যাটে ধারন করা) ফাইল থেকে ভিডিওর বিকৃতি সনাক্ত করতে পারে। তবে ওয়েবের জন্য সংকুচিত বা কমপ্রেস করা ভিডিওর বেলায় তারা ফলাফল যাচাই করতে সফল হয়নি।
প্রযুক্তি যত উন্নত হয়ে উঠছে এবং ডিপফেক প্রযুক্তিও বা GAN প্রক্রিয়াগুলি আরও উন্নত হয়ে উঠেছে। অদূর ভবিষ্যতে একটি ভিডিও আসল কিনা তা বলা অসম্ভব হয়ে উঠবে।
এ কারণেই ডিপফেকের বিরুদ্ধে এআই-ভিত্তিক পাল্টা ব্যবস্থা তৈরির উদ্যোগ চলছে। কিন্তু প্রযুক্তির বিকাশ অব্যাহত থাকায়, এই পাল্টা ব্যবস্থাগুলোকে গতিশীল রাখতে হবে। সম্প্রতি, ফেসবুক এবং মাইক্রোসফ্ট, অন্যান্য কোম্পানি এবং বিশিষ্ট ইউএস ইউনিভার্সিটিগুলির একটি গুচ্ছের সাথে ডিপফেক ডিটেকশন চ্যালেঞ্জ (DFDC) এর পিছনে একটি কনসোর্টিয়াম গঠন করেছে। এই উদ্যোগটি গবেষকদের একটি ভিডিও কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে পরিবর্তন করা হয়েছে কিনা তা শনাক্ত করতে পারে এমন প্রযুক্তি তৈরি করতে অনুপ্রাণিত করে।
এছাড়াও, বায়োমেট্রিক্স ব্যবহার করেও ডিপফেক শনাক্ত করা সম্ভব। বায়োমেট্রিক্স হল আমাদের শরীরের শারীরিক বৈশিষ্ট্য। একজন মানুষের বায়োমেট্রিক্স জানলে সেই ব্যক্তিকে সনাক্ত করা সম্ভব। ডিপফেক উন্মোচন করার জন্য বায়োমেট্রিক্স ব্যবহার দুটি প্রক্রিয়ায় হতে পারে, প্রথমত আচরণগত বায়োমেট্রিক্স এবং অন্যটি হলো কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি বা ফেসিয়াল রিকগনিশন।
তবে ভুয়া বা পরিবর্তিত ভিডিও তৈরির ক্ষেত্রে ডিপফেক এর চেয়ে সহজ একটি প্রক্রিয়া আছে যার নাম শ্যালোফেক।
‘ডিপ ফেক’ পর্নের শিকার মেয়েদের জীবন দুর্বিসহ হয়ে যাচ্ছে-
রোজি মরিস তার ছবিতে এটা তুলে ধরতে চেয়েছেন যে এই ডিপফেক ছবিগুলো হেলেনের মনে কত গুরুতর প্রতিক্রিয়া সৃষ্টি করেছে – যার মধ্যে আছে দুঃস্বপ্ন ও সন্দেহবাতিকগ্রস্ত হয়ে পড়া।
হেলেন বলছেন, তার প্রায়ই মনে হয় যে রাস্তার লোকজন বোধহয় তার এই গোপন ঘটনার কথা জেনে গেছে।
“মনে হয়, রাস্তার লোকজন বুঝি ওই ছবিগুলোর কথা জেনে গেছে, তারা আমার এই ভয়াবহ গোপন ঘটনাটি জেনে গেছে। হঠাৎ করেই ওই ঘটনাটি আমার জীবনের এক ভয়াবহ গোপন ঘটনা বলে মনে হতো লাগলো।”
ভিক্টিমের জীবনের সবক্ষেত্রে এর প্রভাব পড়ে-
ডিপ ফেক ছবির শিকার হওয়া কারো যে ‘ট্রমা’ বা মানসিক আঘাতের অভিজ্ঞতা হয় তা খুবই বাস্তব। ইমেজ-ভিত্তিক যৌন অত্যাচারের বিষয়ে একজন বিশেষজ্ঞ ডারাম বিশ্ববিদ্যালয়ের অধ্যাপক ক্লেয়ার ম্যাকগ্লিন। তিনি বিবিসিকে বলছেন, এর প্রভাব জীবনকে বিপর্যস্ত এবং ভেঙে টুকরো টুকরো করে দেয়।
“অনেক ভিক্টিমের এ কারণে সামাজিক বিভাজন ঘটে যায়। তাদের জীবন ওই ঘটনার ‘আগে’ ও ‘পরে’ – এই দুই ভাগে বিভক্ত হয়ে যায়। জীবনের প্রতিটি ক্ষেত্রে – পেশাগত, ব্যক্তিগত, অর্থনৈতিক, স্বাস্থ্যগত বা সার্বিকভাবে ভালো থাকা-না-থাকা – সবকিছুর ওপর বিরূপ প্রভাব ফেলে।”
ছবিতে হেলেন বলেন, “আমার মনে হতো যেন ওই ছবিগুলো আসল, যারা তাদের নিজের ছবিকে ওই ধরনের পরিবর্তন করা অবস্থায় দেখেনি – তাদেরকে এটা বোঝানো খুব কঠিন।”
“তারা সরাসরি আমাকে কিছু করেনি, কিন্তু এইসব ছবিগুলোকে আমার মাথায় গেঁথে দিয়েছে। আমি ওগুলোকে আর আমার ‘না-দেখা’ বানাতে পারছি না।”
“এমনকি যে ছবিতে কোন পরিবর্তন করা হয়নি – সেটার দিকেও আমি আর আগের মত করে তাকাতে পারছিনা।”
মরিস বলছেন, হেলেন ওই ছবিগুলো দিয়ে যেন “সংক্রমিত” হয়ে গেছেন।
“একটা ছবিকে সেই ছবি তোলার মুহূর্তটির স্মৃতি থেকে আলাদা করা যায় না। সবচেয়ে গুরুতর ব্যাপার হলো, হেলেনের ক্ষেত্রে সেই স্মৃতিগুলো বদলে দেয়া হয়েছে। ছবিগুলোতে কতগুলো মিথ্যে স্মৃতি বসিয়ে দিয়ে সেই মিথ্যেগুলোকে তার মনে বসিয়ে দেয়া হয়েছে। এর ফলে তার যে মানসিক আঘাত – তা আসলেই পরিমাপ করা যায় না।”
“এটা হচ্ছে মানসিকভাবে আক্রমণের শিকার হবার মতো একটা অভিজ্ঞতা।”
সুতরাং, ডিপফেক খুবই আধুনিক এবং প্রতিশ্রুতিশীল প্রযুক্তি। মানুষ এখনও এর সাথে পরিচিত হচ্ছে। অনেক প্রযুক্তির মত, এর সুবিধা এবং অসুবিধা রয়েছে। এটি আমাদের বিশ্বের ক্ষতি এবং একই সাথে উন্নতি করতে পারে। বিভিন্ন শিল্পে কীভাবে এর থেকে সর্বাধিক লাভ করা যায় তা বোঝার জন্য আমাদের সময় লাগবে। সময়ের সাথে সাথে এটি নিয়ন্ত্রণ করার অনেক উপায় থাকবে, যেমন অতীতের অন্যান্য উদ্ভাবনের ক্ষেত্রে ছিল। সাম্প্রতিক সময়ে ডিপফেক ভিডিও শনাক্ত করারও উপায় ও প্রযুক্তি আবিষ্কার হয়েছে এবং হচ্ছে।