5 شرکتی که می‌خواهند آشکارساز دیپ‌فیک بسازند

با دوستان خود را به اشتراک بگذارید:

هنگامی که اوایل این هفته یک تصویر تولید شده توسط هوش مصنوعی از انفجاری که در خارج از پنتاگون رخ می‌دهد در رسانه‌های اجتماعی وایرال شد، پیش‌نمایش کوتاهی از فاجعه اطلاعات دیجیتالی که محققان هوش مصنوعی برای سال‌ها نسبت به آن هشدار داده‌اند ارائه کرد. این تصویر به وضوح جعل شده بود اما باز هم تماس‌های زیادی با پلیس و رسانه‌ها گرفته شد که به سبک 11 سپتامبر 2001 در جریان است. هرج‌ومرج متعاقب آن موج شوک کوتاهی را به بازار سهام وارد کرد و باعث وحشت همگانی شد.

شکست پنتاگون در عرض چند ساعت حل شد، اما اوضاع می‌توانست بسیار بدتر از این باشد. در اوایل سال جاری، جفری هینتون، دانشمند کامپیوتر که برخی از او به عنوان «پدرخوانده هوش مصنوعی» یاد می‌کنند، گفت که نگران است کیفیت متقاعدکننده‌تر تصاویر تولید شده توسط هوش مصنوعی افراد عادی را به این سمت سوق دهد که «نتوانند بفهمند چه کسی حقیقت را می‌گوید».

استارت‌آپ‌ها و شرکت‌های مستقر هوش مصنوعی هم‌زمان در حال رقابت برای توسعه ابزارهای جدید تشخیص عمیق هوش مصنوعی هستند تا از وقوع این فاجعه جلوگیری کنند.

برخی از این تلاش‌ها برای سال‌ها سابقه دارند، اما انفجار ناگهانی هوش مصنوعی مولد و هوشیاری جریان اصلی نسبت به OpenAI’s DALL-E و ChatGPT منجر به افزایش احساس فوری سرمایه‌گذاری بیشتر برای ایجاد راهی برای شناسایی آسان محصولات هوش مصنوعی شده است.

شرکت‌هایی که برای یافتن راه‌حل‌های تشخیص رقابت می‌کنند، این کار را در تمام سطوح محتوا انجام می‌دهند؛ از شناسایی محتوای متنی تا شناسایی کدهای عکس‌ها و ویدئوهای تولید شده توسط هوش مصنوعی. به طور مشخص این حوزه‌ای است که به سرمایه‌گذاری بیشتر و اکتشاف بیشتر نیاز دارد.

بیشتر بخوانید  احتمال ساخت آیفون با نمایشگر رول‌شونده از سوی اپل

در اینجا برخی از شرکت‌هایی که در رقابت برای شناسایی دیپ‌فیک پیشرو هستند را مرور می‌کنیم.

Intel FakeCatcher

تراشه ساز مشهور و شناخته شده، اینتل در تحقیقات هوش مصنوعی بازیگر شناخته شده است. اکنون این غول مشهور فناوری از این دانش برای ایجاد FakeCatcher استفاده می‌کند، یک فناوری تشخیص دیپ‌فیک «در لحظه» که ادعا می‌کند می‌تواند ویدئوهای هوش مصنوعی را در ۹۶ درصد مواقع شناسایی کند.

برخلاف سایر آشکارسازها که به کد منبع خام یک فایل یا سند نگاه می‌کنند، FakeCatcher در واقع چهره‌ها را در رسانه‌ها تجزیه‌وتحلیل می‌کند تا تغییرات جریان خون انسانی را تشخیص دهد، تغییراتی که در هوش مصنوعی قابل شبیه‌سازی نیست. این سیستم همچنین سیستم تشخیص مبتنی بر چشم را دارد که روی این متمرکز است که سوژه انسان است یا توسط هوش مصنوعی تولید شده است.

Microsoft

مدت‌ها قبل از اینکه مایکروسافت بخواهد موتور جستجوی Bing خود را با ادغام ChatGPT احیا کند، غول فناوری دنیا به دنبال راه‌هایی برای شناسایی دیپ‌فیک بود. در سال 2020، این شرکت Microsoft Video Authenticator را معرفی کرد که عکس‌ها یا ویدئوها را تجزیه‌وتحلیل می‌کند و درصد احتمال دیپ‌فیک بودن محتوا را به شما می‌گوید. مایکروسافت می‌گوید آشکارسازش می‌تواند این کار را با شناسایی عناصر خاکستری و جزئیات کوچک که احتمالاً برای چشم انسان غیر قابل تشخیص هستند، انجام دهد.

آشکارساز مایکروسافت در زمان خود پیشرفته به نظر می رسید، اما مشخص نیست که این سیستم تا چه اندازه در برابر هجوم فناوری جدید تولیدکنندگان تصویر هوش مصنوعی که در سه سال گذشته ظاهر شده اند مقاوم و درست است. مایکروسافت خودش اعتراف کرده که انتظار ندارد آشکارسازش به سرعت دیپ‌فیک پیشرفت کند.

بیشتر بخوانید  این شغل‌ها تا 5 سال آینده از بین خواهند رفت!

DARPA

DARPA، بخش تحقیق و توسعه بدون محدودیت ارتش ایالات متحده، حداقل از سال 2019 برنامه ای برای بررسی راه های تشخیص محتواهای تولید شده توسط هوش مصنوعی داشته است. برنامه Semantic Forensic دارپا (SemaFor) بر ایجاد “الگوریتم های تحلیل معنایی و آماری” متمرکز شده است. دفاع در برابر تصاویر دستکاری شده برای جلوگیری از انتشار اطلاعات نادرست اولویت این برنامه است. این برنامه همچنین در حال توسعه الگوریتم‌های انتساب برای تعیین منشأ یک تصویر جعلی است و سعی می‌کند مشخص کند که تصویر برای اهداف خوش‌خیم تولید شده یا احتمالاً بخشی از کمپین اطلاعات نادرست مضر ایجاد شده توسط دولت‌های رقیب یا جریان‌ها سیاسی است.

OpenAI

OpenAI تقریباً به تنهایی توانسته است با مولدهای تصویر DALL-E و ChatGPT محبوب خود، با سرعت و کیفیتی خاص از هوش مصنوعی مولد استفاده کند. اکنون، این شرکت در تلاش است تا فیلترهای هوش مصنوعی را توسعه دهد.

فیلتر کننده متن OpenAI تا اینجای کار، عالی عمل نکرده است. OpenAI می‌گوید طبقه‌بندی‌کننده‌اش تنها توانست 26 درصد متون نوشته شده توسط هوش مصنوعی را به‌عنوان متن نوشته شده توسط هوش مصنوعی به درستی شناسایی کند. بدتر از آن، همان سیستم به اشتباه 9 درصد از محتوای تألیف شده توسط انسان را به عنوان محتوای تولید شده توسط هوش مصنوعی مشخص کرد.

OpenAI می‌گوید: فیلتر ما کاملا قابل اعتماد نیست. این نباید به عنوان یک ابزار تصمیم گیری اولیه استفاده شود، بلکه باید به عنوان مکملی برای روش های دیگر تعیین منبع استفاده شود.

Optic

استارت‌آپ Optic که تشخیص دهنده حرفه‌ای دیپ‌فیک است، جسورانه ادعا می‌کند که می‌تواند تصاویر تولید شده توسط هوش مصنوعی Stable Diffusion، Midjourney، DALL-E و Gan.ai را شناسایی کند. کاربران به سادگی باید تصویر مشکوک مورد نظر را در وب سایت Optic آپلود کنند یا آن را به یک ربات در تلگرام ارسال کنند و این شرکت دست به تشخیص می‌زند.

بیشتر بخوانید  ربات‌ها چطور چند صد میلیون کارگر را بیکار می‌کنند؟

Optic با ارائه درصدی نشان می دهد سیستمش چقدر مطمئن است که تصویر ارسال شده توسط هوش مصنوعی تولید شده است. همچنین تلاش می‌کند تا مشخص کند که از کدام مدل خاص برای ایجاد تصویر استفاده شده است. اگرچه Optic ادعا می‌کند که قادر است تصاویر تولید شده با هوش مصنوعی را در 96٪ مواقع به درستی شناسایی کند، اما تجربه نشان داده این شرکت بی اشتباه نیست. رسانه Gizmodo از مدل Optic درخواست کرد که صحت تصویر کاملاً تقلبی یک انفجار احتمالی در نزدیکی پنتاگون را تعیین کند و Optic تشخیص داد که “توسط یک انسان تولید شده است”.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *