ظاهراً یکی از قابلیتهای خارقالعاده هوش مصنوعی مولد، متحد کردن سیاستمداران، بخش عمومی و بخش خصوصی برای قانونمند کردن و تنظیمگری آن است، اتفاقی که تا امروز در ایالات متحده تقریبا بیسابقه بوده است.
مصداق این اتحاد را در جلسه اخیر استماع کمیته قضایی سنا دیدیم. سام آلتمن، مدیرعامل OpenAI، کریستینا مونتگومری، عضو ارشد حریم خصوصی و اعتماد IBMو گری مارکوس، استاد بازنشسته NYU، در مقابل کمیته فرعی حریم خصوصی، فناوری و قانون سنا شهادت دادند و از این سخن گفتند که حالا پس از خروج هوش مصنوعی از جعبه پاندورا، برای قاعدهمندتر کردن آن چه باید کرد.
آنچنان که mashable نوشته سم آلتمن بسیار رویکرد مثبت و بازی داشت و حتی خود او از ضرورت تنظیمگری برای ChatGPT و هوش مصنوعی مولد دفاع میکرد. اما به نظر میرسید که این رویکرد آلتمن باعث شد تا اعضای سنا نسبت به او موضع مثبتی بگیرند و سوالات بسیار سادهای بپرسند.
این جلسه سهساعته به خطرات زیادی که هوش مصنوعی مولد برای جامعه دارد و به این که چگونه آمریکا میتواند انقلاب صنعتی بعدی را با موفقیت پشت سر بگذارد، پرداخت. متأسفانه پرداختن به بسیاری از مسائل در یک زمان محدود به این معنی بود که بهسختی زمان کافی برای بررسی نگرانیهای رایج مانند جایگزینی شغل، قانون کپیرایت و البته امنیت ملی آمریکا وجود داشت.
در اینجا نکات 6 نکته جالب و برجسته جلسه را مرور میکنیم.
افتتاحیه جلسه با دیپفیک (Deep Fake)
سناتور ریچارد بلومنتال جلسه استماع را با یک حرکت دراماتیک و جذاب و با پخش صدای ضبط شدهای که در مورد ChatGPT صحبت میکرد آغاز کرد. این صدا با استفاده از صدای سخنرانیهای او توسط هوش مصنوعی ساخته شد بود و متن آن را نیز ChatGPT خلق کرده بود. ChatGPT این متن را در پاسخ به این سوال نوشته بود که بلومنتال چگونه جلسه استماع را شروع میکند.
شروع کار با دیپفیک، با تأکید بر قابلیتهای چشمگیر هوش مصنوعی و اینکه اگر این تکنولوژی کنترل نشود تا چه اندازه خطرناک است هشداری بود تا گوش اعضای جلسه از همان ابتدا تیز و توجه آنها جلب شود.
از دست رفتن شغلها؛ معمای حل نشده
یکی از نگرانیهای اصلی در مورد ChatGPT و به طور کلی هوش مصنوعی مولد، مشاغلی است که با خودکارسازی وظایف توسط هوش مصنوعی و ربات جایگزین میشوند. وقتی از آلتمن پرسیده شد که آیا این یک نگرانی جدی است او پاسخ داد که هوش مصنوعی ممکن است جایگزین مشاغل شود اما مشاغل جدیدی نیز ایجاد میکند.
آلتمن گفت: من معتقدم که مشاغل بسیار بیشتری در طرف دیگر ماجرا وجود خواهد داشت و مشاغل امروزی بهتر خواهند شد. مونتگومری اضافه کرد که مهمترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارتهای مرتبط با هوش مصنوعی آماده کنیم و به آنها آموزش دهیم.
اما این که این مسئولیت بر عهده چه کسی است ناگفته ماند. آلتمن گفت: من فکر میکنم که این امر مستلزم مشارکت بین صنعت و دولت است، اما عمدتاً این بخش نیازمند اقدام دولت است. بهعبارتدیگر آلتمن گفت که این مشکل OpenAI نیست.
همه موافق تنظیمگری هوش مصنوعی هستند
سناتور دیک دوربین، سخنان خود را با اشاره به گفتوگوی غیرمعمول و همکاری بین بخش دولتی و خصوصی آغاز کرد. او با اشاره به عجیب بودن این تجربه گفت: نمیتوانم به یاد بیاورم که آخرین بار چه زمانی و چه کسانی تحت عنوان نماینده شرکتهای بزرگ یا نهادهای بخش خصوصی از ما درخواست تنظیم قانون برای خود کرده باشند.
هر چند ممکن است عنوان درخواست تنظیم قانون و مقررات کمی اغراقآمیز باشد، اما آلتمن و مونتگومری نشان دادند که با میل و گاه با اشتیاق دنبال سطحی از نظارت دولتی هستند.
آلتمن گفت که او معتقد است بخش 230 قانون در مورد هوش مصنوعی مولد اعمال نمیشود و این به آن معنی است که شرکتهایی که این فناوری را ارائه میدهند باید مسئول باشند و باید یک چارچوب کاملاً جدید برای محتوای ایجاد شده توسط هوش مصنوعی مولد وجود داشته باشد.
این مسئله را میتوان به عنوان نمونهای موفق از کنترلها و تعادلهای دموکراتیک در کار تفسیر کرد، اما نکته به ما نشان داد که تهدید هوش مصنوعی چقدر جدی است و حفاظت از شرکتهایی مانند OpenAI در برابر مسئولیتهای آنها چقدر ضروری است.
تنظیمگری در این سطح حتی ممکن است منجر به ایجاد یک آژانس فدرال جدید مانند سازمان غذا و دارو شود، چیزی که مارکوس پیشنهاد کرد و گفت: نظر من این است که ما احتمالاً به یک سازمان جدید هم سطح کابینه در ایالات متحده نیاز داریم تا به این موضوع رسیدگی کنیم. دلیل من برای آن این است که محدوده خطرات و مقدار اطلاعاتی که باید به آن پرداخت بسیار زیاد است و ما به تخصص فنی جدی و هماهنگی برای تلاشها در این حوزه نیاز داریم.
ایده دیگری که در این باره مطرح شد، صدور مجوز برای هوش مصنوعی مولد، مشابه صدور مجوز برای فعالیتهای انرژی هستهای بود.
اطلاعات غلط؛ نگرانی بزرگ در آستانه انتخابات
یکی از موضوعات زیربنایی جلسه این بود که چگونه از اشتباهاتی که کنگره درباره شبکههای اجتماعی مرتکب شد جلوگیری شود. عدم پاسخگویی شبکههای اجتماعی و عدم تعدیل محتوا منجر به موج اخبار غلط (Fake News) و اطلاعات نادرست گسترده در انتخابات 2016 و 2020 شد. پتانسیل هوش مصنوعی در این حوزه بسیار بالا و بسیار نزدیک است پس باید فکری جدی کرد.
آلتمن گفت: با توجه به اینکه سال آینده با یک انتخابات روبرو خواهیم شد و این مدلها در حال بهتر شدن هستند، من فکر میکنم این یک مسئله قابل توجه نگرانی است. او پذیرای «برچسب زدن» روی ماهیت و منبع محتوای تولیدی هوش مصنوعی از سوی تولید کنندگان شخص ثالث است، اما مارکوس معتقد است که ریشه این مشکل شفافیت و دسترسی به نحوه عملکرد الگوریتم است.
او گفت: یکی از چیزهایی که باعث نگرانی من درباره GPT-4 میشود این است که ما نمیدانیم این هوش مصنوعی روی چه محتوایی آموزش داده شده است. حدس میزنم سام میداند، اما بقیه ما نمیدانیم.
سناتور مارشا بلکبرن عاشق گرت بروکس است و سناتور مازی هینونو عاشق BTS است
اعضای کمیته نتوانستند در برابر این مسئله مقاومت کنند تا کمی بامزگی به ماهیت جدی جلسه اضافه کنند. هنگامی که از آلتمن در مورد ابزار موسیقی خودکار OpenAI و قانون کپیرایت پرسید، بلکبرن در مورد مالکیت آهنگی که با سبک و صدای هنرمند مورد علاقهاش گرت بروکس ساخته شده است ابراز نگرانی کرد. هینونو به همان اندازه نگران آهنگهای دیپفیک بود که شبیه گروه مورد علاقهاش BTS ساخته شده بود. علیرغم اینکه شنیدن نام خواننده مشهور موسیقی کانتری و کی پاپ کمی عجیب بود، بلکبرن و هینونو نکات مهمی را در مورد مالکیت معنوی مطرح کردند.
امنیت ملی؛ موضوعی که به آن پرداخته نشد
این جلسه سهساعته آنقدر خطرات هوش مصنوعی مولد را پوشش داد که بلومنتال در سخنان پایانی خود فقط به تهدید آن برای امنیت ملی اشاره کرد و گفت: منابع تهدید برای این ملت در این فضا هوش مصنوعی بسیار واقعی و فوری هستند. ما امروز به آنها نمیپردازیم، اما باید به زودی به آن بپردازیم.