6 نکته از حضور سم آلتمن در سنا؛ از اخبار غلط تا کپی BTS!

با دوستان خود را به اشتراک بگذارید:

ظاهراً یکی از قابلیت‌های خارق‌العاده هوش مصنوعی مولد، متحد کردن سیاستمداران، بخش عمومی و بخش خصوصی برای قانونمند کردن و تنظیم‌گری آن است، اتفاقی که تا امروز در ایالات متحده تقریبا بی‌سابقه بوده است.

مصداق این اتحاد را در جلسه اخیر استماع کمیته قضایی سنا دیدیم. سام آلتمن، مدیرعامل OpenAI، کریستینا مونتگومری، عضو ارشد حریم خصوصی و اعتماد IBMو گری مارکوس، استاد بازنشسته NYU، در مقابل کمیته فرعی حریم خصوصی، فناوری و قانون سنا شهادت دادند و از این سخن گفتند که حالا پس از خروج هوش مصنوعی از جعبه پاندورا، برای قاعده‌مندتر کردن آن چه باید کرد.

آن‌چنان که mashable نوشته سم آلتمن بسیار رویکرد مثبت و بازی داشت و حتی خود او از ضرورت تنظیم‌گری برای ChatGPT و هوش مصنوعی مولد دفاع می‌کرد. اما به نظر می‌رسید که این رویکرد آلتمن باعث شد تا اعضای سنا نسبت به او موضع مثبتی بگیرند و سوالات بسیار ساده‌ای بپرسند.

این جلسه سه‌ساعته به خطرات زیادی که هوش مصنوعی مولد برای جامعه دارد و به این که چگونه آمریکا می‌تواند انقلاب صنعتی بعدی را با موفقیت پشت سر بگذارد، پرداخت. متأسفانه پرداختن به بسیاری از مسائل در یک زمان محدود به این معنی بود که به‌سختی زمان کافی برای بررسی نگرانی‌های رایج مانند جایگزینی شغل، قانون کپی‌رایت و البته امنیت ملی آمریکا وجود داشت.

در اینجا نکات 6 نکته جالب و برجسته جلسه را مرور می‌کنیم.

افتتاحیه جلسه با دیپ‌فیک (Deep Fake)

سناتور ریچارد بلومنتال جلسه استماع را با یک حرکت دراماتیک و جذاب و با پخش صدای ضبط شده‌ای که در مورد ChatGPT صحبت می‌کرد آغاز کرد. این صدا با استفاده از صدای سخنرانی‌های او توسط هوش مصنوعی ساخته شد بود و متن آن را نیز ChatGPT خلق کرده بود. ChatGPT این متن را در پاسخ به این سوال نوشته بود که بلومنتال چگونه جلسه استماع را شروع می‌کند.

بیشتر بخوانید  5 اولویت لیندا یاکارینو در توییتر؛ ماموریت غیرممکن

شروع کار با دیپ‌فیک، با تأکید بر قابلیت‌های چشمگیر هوش مصنوعی و اینکه اگر این تکنولوژی کنترل نشود تا چه اندازه خطرناک است هشداری بود تا گوش اعضای جلسه از همان ابتدا تیز و توجه آن‌ها جلب شود.

از دست رفتن شغل‌ها؛ معمای حل نشده

یکی از نگرانی‌های اصلی در مورد ChatGPT و به طور کلی هوش مصنوعی مولد، مشاغلی است که با خودکارسازی وظایف توسط هوش مصنوعی و ربات جایگزین می‌شوند. وقتی از آلتمن پرسیده شد که آیا این یک نگرانی جدی است او پاسخ داد که هوش مصنوعی ممکن است جایگزین مشاغل شود اما مشاغل جدیدی نیز ایجاد می‌کند.

آلتمن گفت: من معتقدم که مشاغل بسیار بیشتری در طرف دیگر ماجرا وجود خواهد داشت و مشاغل امروزی بهتر خواهند شد. مونتگومری اضافه کرد که مهم‌ترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت‌های مرتبط با هوش مصنوعی آماده کنیم و به آن‌ها آموزش دهیم.

اما این که این مسئولیت بر عهده چه کسی است ناگفته ماند. آلتمن گفت: من فکر می‌کنم که این امر مستلزم مشارکت بین صنعت و دولت است، اما عمدتاً این بخش نیازمند اقدام دولت است. به‌عبارت‌دیگر آلتمن گفت که این مشکل OpenAI نیست.

همه موافق تنظیم‌گری هوش مصنوعی هستند

سناتور دیک دوربین، سخنان خود را با اشاره به گفت‌وگوی غیرمعمول و همکاری بین بخش دولتی و خصوصی آغاز کرد. او با اشاره به عجیب بودن این تجربه گفت: نمی‌توانم به یاد بیاورم که آخرین بار چه زمانی و چه کسانی تحت عنوان نماینده شرکت‌های بزرگ یا نهادهای بخش خصوصی از ما درخواست تنظیم قانون برای خود کرده باشند.

هر چند ممکن است عنوان درخواست تنظیم قانون و مقررات کمی اغراق‌آمیز باشد، اما آلتمن و مونتگومری نشان دادند که با میل و گاه با اشتیاق دنبال سطحی از نظارت دولتی هستند.

بیشتر بخوانید  برای اولین بار در تاریخ؛ باد منبع اصلی تأمین برق بریتانیا شد

آلتمن گفت که او معتقد است بخش 230 قانون در مورد هوش مصنوعی مولد اعمال نمی‌شود و این به آن معنی است که شرکت‌هایی که این فناوری را ارائه می‌دهند باید مسئول باشند و باید یک چارچوب کاملاً جدید برای محتوای ایجاد شده توسط هوش مصنوعی مولد وجود داشته باشد.

این مسئله را می‌توان به عنوان نمونه‌ای موفق از کنترل‌ها و تعادل‌های دموکراتیک در کار تفسیر کرد، اما نکته به ما نشان داد که تهدید هوش مصنوعی چقدر جدی است و حفاظت از شرکت‌هایی مانند OpenAI در برابر مسئولیت‌های آن‌ها چقدر ضروری است.

تنظیم‌گری در این سطح حتی ممکن است منجر به ایجاد یک آژانس فدرال جدید مانند سازمان غذا و دارو شود، چیزی که مارکوس پیشنهاد کرد و گفت: نظر من این است که ما احتمالاً به یک سازمان جدید هم سطح کابینه در ایالات متحده نیاز داریم تا به این موضوع رسیدگی کنیم. دلیل من برای آن این است که محدوده خطرات و مقدار اطلاعاتی که باید به آن پرداخت بسیار زیاد است و ما به تخصص فنی جدی و هماهنگی برای تلاش‌ها در این حوزه نیاز داریم.

ایده دیگری که در این باره مطرح شد، صدور مجوز برای هوش مصنوعی مولد، مشابه صدور مجوز برای فعالیت‌های انرژی هسته‌ای بود.

اطلاعات غلط؛ نگرانی بزرگ در آستانه انتخابات

یکی از موضوعات زیربنایی جلسه این بود که چگونه از اشتباهاتی که کنگره درباره شبکه‌های اجتماعی مرتکب شد جلوگیری شود. عدم پاسخگویی شبکه‌های اجتماعی و عدم تعدیل محتوا منجر به موج اخبار غلط (Fake News) و اطلاعات نادرست گسترده در انتخابات 2016 و 2020 شد. پتانسیل هوش مصنوعی در این حوزه بسیار بالا و بسیار نزدیک است پس باید فکری جدی کرد.

بیشتر بخوانید  سهم 44 درصدی پروژه‌های متاورس از سرمایه‌گذاری‌ها در دنیای وب 3

آلتمن گفت: با توجه به اینکه سال آینده با یک انتخابات روبرو خواهیم شد و این مدل‌ها در حال بهتر شدن هستند، من فکر می‌کنم این یک مسئله قابل توجه نگرانی است. او پذیرای «برچسب‌ زدن» روی ماهیت و منبع محتوای تولیدی هوش مصنوعی از سوی تولید کنندگان شخص ثالث است، اما مارکوس معتقد است که ریشه این مشکل شفافیت و دسترسی به نحوه عملکرد الگوریتم است.

او گفت: یکی از چیزهایی که باعث نگرانی من درباره GPT-4 می‌شود این است که ما نمی‌دانیم این هوش مصنوعی روی چه محتوایی آموزش داده شده است. حدس می‌زنم سام می‌داند، اما بقیه ما نمی‌دانیم.

سناتور مارشا بلکبرن عاشق گرت بروکس است و سناتور مازی هینونو عاشق BTS است

اعضای کمیته نتوانستند در برابر این مسئله مقاومت کنند تا کمی بامزگی به ماهیت جدی جلسه اضافه کنند. هنگامی که از آلتمن در مورد ابزار موسیقی خودکار OpenAI و قانون کپی‌رایت پرسید، بلکبرن در مورد مالکیت آهنگی که با سبک و صدای هنرمند مورد علاقه‌اش گرت بروکس ساخته شده است ابراز نگرانی کرد. هینونو به همان اندازه نگران آهنگ‌های دیپ‌فیک بود که شبیه گروه مورد علاقه‌اش BTS ساخته شده بود. علی‌رغم اینکه شنیدن نام خواننده مشهور موسیقی کانتری و کی پاپ کمی عجیب بود، بلکبرن و هینونو نکات مهمی را در مورد مالکیت معنوی مطرح کردند.

امنیت ملی؛ موضوعی که به آن پرداخته نشد

این جلسه سه‌ساعته آن‌قدر خطرات هوش مصنوعی مولد را پوشش داد که بلومنتال در سخنان پایانی خود فقط به تهدید آن برای امنیت ملی اشاره کرد و گفت: منابع تهدید برای این ملت در این فضا هوش مصنوعی بسیار واقعی و فوری هستند. ما امروز به آن‌ها نمی‌پردازیم، اما باید به زودی به آن بپردازیم.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *