آیا دانشمندان قادر به قاعده‌مند کردن هوش مصنوعی خواهند بود؟

با دوستان خود را به اشتراک بگذارید:

خیلی زود بعد از آنکه «آلن تورینگ» مطالعه علم کامپیوتر را در سال ۱۹۳۶ آغاز کرد، این موضوع ذهنش را درگیر کرد که بشریت روزی می‌تواند ماشین‌هایی با هوش قابل قیاس با انسان بسازد یا خیر. هوش مصنوعی، حوزه‌ای مدرن که با این پرسش دست به گریبان است، از آن زمان راه درازی را پیموده؛ اما ما با اختراع ماشین‌های واقعاً هوشمند که بتوانند به‌طور مستقل وظایف متفاوت بسیاری را انجام دهند، بسیار فاصله داریم.

اگرچه در ادبیات علمی-تخیلی مدت‌هاست تصور می‌شود که هوش مصنوعی (AI) روزی گونه‌هایی بدطینت به‌خود می‌گیرد (مانند اندرویدهای بی‌اخلاق یا ترمیناتورهای قاتل)، پژوهشگران امروزی هوش مصنوعی بیشتر نگران الگوریتم‌های روزمره AI هستند که درحال‌حاضر با زندگی ما درآمیخته‌اند.

اگرچه AI امروز تنها می‌تواند برخی وظایف معین را اتوماتیک انجام دهد، از همین حالا نگرانی‌هایی جدی ایجاد کرده است. در دهه گذشته، مهندسان، استادان، افشاگران و خبرنگاران مکرراً مواردی را ثبت کرده‌اند که در آن‌ها سیستم‌های AI، متشکل از نرم‌افزارها و الگوریتم‌ها، باعث آسیب‌هایی جدی به انسان‌ها شده‌اند.

فیدهای شبکه‌های اجتماعی می‌توانند محتوایی سمی برای نوجوانان آسیب‌پذیر نشان دهند؛ پهپادهای نظامی تحت هدایت AI می‌توانند بدون استدلال‌های اخلاقی آدم بکشند. به‌علاوه، یک الگوریتم AI بیشتر شبیه به یک جعبه‌سیاه دستورپذیر است تا یک مکانیسم ساعت. پژوهشگران اغلب نمی‌توانند بفهمند این الگوریتم‌ها که براساس معادلاتی مبهم و شامل هزاران محاسبه هستند، چگونه به خروجی‌های خود دست می‌یابند.

مشکلات AI از نظرها پنهان نمانده است و پژوهشگران آکادمیک تلاش می‌کنند تا این سیستم‌ها را امن‌تر و اخلاقی‌تر بسازند. کمپانی‌هایی که محصولات AI‌محور می‌سازند، درحال تلاش برای حذف آسیب‌ها هستند؛ اگرچه معمولاً تمایلی ندارند تلاش‌های خود را به‌طور شفاف نشان دهند.

«جاناتان استری» (Jonathan Stray)، پژوهشگر AI دانشگاه کالیفرنیا برکلی می‌گوید: «آن‌ها چندان در دسترس نیستند.»

الگوریتم‌های هوش مصنوعی شبکه‌های اجتماعی بارها نشان داده‌اند که توانایی نشان‌دادن محتوای سمی و غیراخلاقی را دارند. یکی از بزرگ‌ترین دلایل نگرانی درباره اصول اخلاقی هوش مصنوعی نیز همین الگوریتم‌ها بوده‌اند.
الگوریتم‌های هوش مصنوعی شبکه‌های اجتماعی بارها نشان داده‌اند که توانایی نشان‌دادن محتوای سمی و غیراخلاقی را دارند. یکی از بزرگ‌ترین دلایل نگرانی درباره اصول اخلاقی هوش مصنوعی نیز همین الگوریتم‌ها بوده‌اند.

خطرات شناخته‌شده AI و همچنین ریسک‌های بالقوه آینده، به محرک‌های اصلی پژوهش‌های جدید AI تبدیل شده‌اند. حتی دانشمندانی که روی مسائلی انتزاعی‌تر نظیر کارایی الگوریتم‌های هوش مصنوعی تمرکز دارند، دیگر نمی‌توانند از دلالت‌های اجتماعی حوزه خود چشم‌پوشی کنند.

«پاسکال فانگ» (Pascale Fung)، پژوهشگر AI در دانشگاه علم و تکنولوژی هنگ‌کنگ می‌گوید: «هرچه هوش مصنوعی قوی‌تر شود، مردم بیشتر تقاضا می‌کنند که امن‌تر و پویاتر باشد. در اکثر سه دهه گذشته که در AI بودم، مردم واقعاً اهمیتی نمی‌دادند.»

بیشتر بخوانید  پای هوش مصنوعی به تپسی باز شد

با استفاده گسترده AI نگرانی‌ها بیشتر شده‌اند. برای مثال، در میانه دهه ۲۰۱۰، برخی از کمپانی‌های جستجوی وب و رسانه‌های اجتماعی شروع به استفاده از الگوریتم‌های هوش مصنوعی در محصولات خود کردند. آن‌ها دریافتند که می‌توانند الگوریتم‌هایی بسازند که پیش‌بینی می‌کنند کدام کاربران با احتمال بیشتری روی کدام تبلیغات کلیک می‌کنند و به‌این‌ترتیب می‌توانستند سودهای خود را افزایش دهند. پیشرفت‌ها در پردازش، انجام چنین کارهایی را از راه بهبود انقلابی در «تمرین دادن» (training) این الگوریتم‌ها ممکن ساخته بودند – وادارکردن هوش مصنوعی به آموختن از مثال‌ها برای رسیدن به عملکرد بالا.

اما وقتی هوش مصنوعی راه خود را به‌تدریج به موتورهای جستجو و دیگر کاربردها باز کرد، افراد متوجه مشکلاتی شدند و پرسش‌هایی مطرح کردند. در سال ۲۰۱۶، خبرنگاران جستجوگر ادعا کردند که برخی الگوریتم‌های مورد استفاده در ارزیابی‌های عفو مشروط دچار تعصبات نژادی هستند.اما پژوهشگران هوش مصنوعی حالا طراحی یک AI را که منصف و بی‌تعصب باشد، مسئله‌ای کلیدی در نظر می‌گیرند.

در چند سال گذشته استفاده از هوش مصنوعی در اپ‌های رسانه‌های اجتماعی به نگرانی دیگری تبدیل شده است. بسیاری از این اپلیکیشن‌ها از الگوریتم‌های AI به نام موتورهای توصیه استفاده می‌کنند که مشابه الگوریتم‌های تبلیغاتی هستند؛ یعنی تصمیم می‌گیرند چه محتوایی را به کاربران نشان دهند.

درحال‌حاضر صدها خانواده کمپانی‌های رسانه‌های اجتماعی را تحت تعقیب قرار داده‌اند؛ به این اتهام که اپ‌های تحت هدایت الگوریتم‌ها محتوای سمی به کودکان نشان می‌دهند و باعث مشکلات سلامت روان می‌شوند. مدارس عمومی سیاتل به‌تازگی پرونده‌ای قضایی را تشکیل داده‌اند که می‌گوید محصولات رسانه‌های اجتماعی اعتیادآور و استثمارکننده هستند.

اما گره‌گشایی از آثار حقیقی یک الگوریتم کار ساده‌ای نیست. پلتفرم‌های اجتماعی داده‌های اندکی از فعالیت کاربران منتشر می‌کنند که پژوهشگران مستقل برای ارزیابی‌های خود به آن‌ها نیاز دارند.

استری که پژوهش‌هایش روی سیستم‌های توصیه‌گر متمرکز است، می‌گوید: «یکی از چیزهای پیچیده درباره همه تکنولوژی‌ها این است که همیشه هزینه‌ها و مزایایی وجود دارد. ما الان در وضعیتی قرار داریم که سخت می‌توانیم از آثار واقعاً بد آگاه شویم.»

گروهی از دانشمندان هوش مصنوعی عقیده دارند که تمرکز اصلی طراحان باید ایجاد چارچوبی اخلاقی برای سیستم‌های هوش مصنوعی آینده باشد، درحالی‌که دیگران می‌گویند مشکلات امروز هوش مصنوعی درزمینه اخلاق نسبت به مشکلات آینده، در اولویت هستند.
گروهی از دانشمندان هوش مصنوعی عقیده دارند که تمرکز اصلی طراحان باید ایجاد چارچوبی اخلاقی برای سیستم‌های هوش مصنوعی آینده باشد، درحالی‌که دیگران می‌گویند مشکلات امروز هوش مصنوعی درزمینه اخلاق نسبت به مشکلات آینده، در اولویت هستند.

طبیعت مشکلات AI نیز متغیر است. در دو سال گذشته محصولات «AI تولیدکننده» منتشر شده‌اند که می‌توانند متن‌ها و تصاویری با کیفیت شگفت‌آور تولید کنند. جمعیت روزافزونی از پژوهشگران هوش مصنوعی حالا باور دارند که سیستم‌های AI قدرتمند آینده می‌توانند بر این دستاوردها سوار شوند و روزی خطراتی جهانی و فاجعه‌بار ایجاد کنند.

بیشتر بخوانید  این مدل هوش مصنوعی از روی متن تصویر می‌سازد

این تهدید‌ها چگونه می‌توانند باشند؟ در مقاله‌ای که اوایل پاییز در مخزن arXiv.org منتشر شد، پژوهشگران DeepMind (یکی از شاخه‌های کمپانی مادر گوگل، آلفابت) یک سناریوی فاجعه‌بار را توصیف می‌کنند.

آن‌ها تصور می‌کنند که مهندسان یک AI کُدساز بر پایه اصول علمی موجود ساخته‌اند که وظیفه دارد کدنویس‌های انسانی را متقاعد کند که پیشنهادهایش را در پروژه‌های کدنویسی خود به‌کار گیرند. ایده این است که با پیشنهادهای بیشتر و بیشتر AI و رد‌شدن بعضی از آن‌ها، بازخورد انسانی به آن کمک می‌کند تا کدنویسی را بهتر یاد بگیرد. اما پژوهشگران می‌گویند که این AI تنها با هدف اتخاذ‌شدن کدهایش، شاید بتواند یک استراتژی را به‌طرز تراژیکی ناامن توسعه دهد؛ مثلاً دستیابی به سلطه جهانی و اجباری‌کردن استفاده از کدهایش، حتی به قیمت نابودی تمدن انسانی.

برخی دانشمندان می‌گویند که پژوهش روی مشکلات موجود که ملموس و متعدد هستند، باید نسبت به کار روی فجایع بالقوه و فرضی آینده اولویت داشته باشد.

«سینتیا رودین»، دانشمند کامپیوتر و پژوهشگر AI در دانشگاه دوک می‌گوید: «فکر می‌کنم ما مشکلات بسیار بدتری داریم که همین الان در جریان هستند.»

چیزی که این حقیقت را تقویت می‌کند، این است که هوش مصنوعی هنوز با ایجاد فجایعی در مقیاس جهانی فاصله زیادی دارد؛ اگرچه چند مورد بوده‌اند که در آن تکنولوژی برای خطرناک‌بودن نیازی به رسیدن به سطح ظرفیت آینده نداشت.

برای مثال، سازمان غیرانتفاعی حقوق بشری عفو بین‌الملل در گزارشی که تابستان گذشته منتشر شد، ادعا کرد الگوریتم‌هایی که کمپانی مادر فیسبوک، متا، توسعه داده‌اند، با ترویج محتوای دعوت به خشونت به‌طرزی قابل‌توجه در زیرپا گذاشتن حقوق انسانی مردم روهینگیا، اقلیتی مسلمان در میانمار، مشارکت داشته‌اند.

«رافائل فرانکل» (Rafael Frankel)، رئیس سیاست‌های عمومی آسیا-پاسیفیک متا، در پاسخ به خبرنگاران ساینتیفیک آمریکن و مجله تایمز، جنایات نظامی میانمار علیه روهینگیا را تصدیق و اعلام کرده که متا درحال مشارکت در بررسی‌های بین‌دولتی به رهبری سازمان ملل و دیگر سازمان‌ها است.

بیشتر بخوانید  هوش مصنوعی در آینده هدایت هواپیماها را در دست خواهد گرفت

دیگر پژوهشگران می‌گویند چگونگی جلوگیری از یک سیستم هوش مصنوعی قوی در آینده برای ایجاد فاجعه‌ای جهانی همین حالا نیز یک نگرانی بزرگ است. «یان لیکه» (Jan Leike)، پژوهشگر AI در کمپانی OpenAI، می‌گوید: «برای من این اصلی‌ترین مشکلی است که باید آن‌را حل کنیم.» اگرچه این خطرات آینده بسیار دور تماماً فرضی هستند، اما قطعاً محرک پژوهشگرانی روزافزون برای مطالعه تاکتیک‌های کاهش آسیب‌های مختلف به شمار می‌آیند.

در رویکردی به نام تراز ارزش، به پرچم‌داری «استوارت راسل» (Stuart Russel)، دانشمند AI دانشگاه کالیفرنیا برکلی، پژوهشگران به‌دنبال راهی هستند که به یک سیستم هوش مصنوعی ارزش‌های انسانی را یاد دهند تا سازگار با آن‌ها عمل کند. یکی از مزایای این رویکرد این است که می‌تواند حالا توسعه یابد و قبل از اینکه سیستم‌های آینده خطراتی ویرانگر ایجاد کنند، در آن‌ها اعمال شود.

منتقدین می‌گویند تراز ارزش تنها با تنگ‌نظری روی ارزش‌های انسانی تمرکز می‌کند، درحالی‌که الزامات بسیار دیگری برای امن ساختن هوش مصنوعی وجود دارد. برای مثال، درست مانند انسان‌ها، یک بنیان دانش معتبر و بر پایه واقعیت لازم است تا سیستم‌های AI تصمیم‌های خوب بگیرند.

«اورِن اتزیونی» (Oren Etzioni)، پژوهشگر انستیتوی هوش مصنوعی آلن (Allen) می‌گوید: «مشکل این نیست که AI ارزش‌های اشتباه دارد؛ حقیقت این است که انتخاب‌های ما تابعی از هر دو ارزش‌ها و دانش ما هستند.»

با گسترش استفاده مردم از ابزارهای هوش مصنوعی نظیر ChatGPT، مشکلات اخلاقی هوش مصنوعی روزبه‌روز بیشتر خود را نشان می‌دهند و تبدیل به دغدغه‌ای عمومی می‌شوند.
با گسترش استفاده مردم از ابزارهای هوش مصنوعی نظیر ChatGPT، مشکلات اخلاقی هوش مصنوعی روزبه‌روز بیشتر خود را نشان می‌دهند و تبدیل به دغدغه‌ای عمومی می‌شوند.

با در نظر داشتن این نقد، پژوهشگران دیگر درحال کار روی توسعه نظریه‌ای جامع‌تر برای هم‌ترازی هوش مصنوعی هستند که هدفش تضمین امنیت سیستم‌های آینده است – بدون تمرکز محدود روی ارزش‌های انسانی.

برخی از این کمپانی‌ها، ازجمله OpenAI و DeepMind، این مشکلات را مربوط به هم‌ترازی ناکافی می‌دانند. آن‌ها درحال کار روی بهبود هم‌ترازی در هوش مصنوعی تولیدکننده متن هستند و امیدوارند این کار بتواند بینش‌هایی برای هم‌ترازی سیستم‌های آینده ارائه دهد.

پژوهشگران تصدیق می‌کنند که نظریه‌ای عام برای هم‌ترازی هوش مصنوعی وجود ندارد. لیکه می‌گوید: «ما واقعاً برای پرسش چگونگی تراز‌کردن سیستم‌هایی که بسیار باهوش‌تر از انسان‌ها هستند، پاسخی نداریم.» اما صرف‌نظر از اینکه آیا بدترین مشکلات AI در گذشته، حال یا آینده هستند، دیگر بزرگ‌ترین مانع برای حل آن‌ها فقدان تلاش نیست.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *