هشدار مدیرعامل سابق گوگل نسبت به خطرات هوش مصنوعی

با دوستان خود را به اشتراک بگذارید:

مدیرعامل سابق گوگل در مصاحبه‌ای بر اطمینان یافتن سازندگان هوش مصنوعی بر اینکه این فناوری نه آسیب‌رسان، بلکه کمک‌کننده باشد تاکید کرد.

به گزارش ایرانی متا به نقل از دیجیاتو، هوش مصنوعی پیشرفت‌های سریعی داشته و در سال‌های اخیر به محبوبیت زیادی رسیده است. حالا مدیرعامل پیشین گوگل، «اریک اشمیت»، در مصاحبه‌ای از پتانسیل‌های این فناوری حرف زده و درعین‌حال به نگرانی‌های پیرامون آن اشاره کرده است.

اشمیت می‌گوید: «جهانی را تصور کنید که پزشکان هوش مصنوعی می‌توانند سلامت همه مردم را ارتقا دهند؛ جهانی را تصور کنید که معلمان هوش مصنوعی توانمندی‌های تحصیلی همه افراد در زبان‌های مختلف را بهبود می‌دهند. این سناریوها بسیار جذاب‌ هستند و این فناوری‌ها که عموماً به‌عنوان مدل‌های زبانی بزرگ شناخته می‌شوند، به‌وضوح قرار است چنین کارهایی انجام دهند.»

چالش‌های هوش مصنوعی پیش روی ماست

با وجود این مزیت‌ها، مدیرعامل پیشین گوگل می‌گوید: «درعین‌حال با چالش‌های خارق‌العاده جدیدی از سوی این ابزارها روبه‌رو می‌شویم؛ خواه دیپ‌فیکی باشد که قبلاً درباره‌اش بحث کرده‌ایم، یا فردی که عاشق معلم هوش مصنوعی خود می‌شود؟»

اشمیت همچنین نگران شیوه استفاده از AI در حوزه بیولوژی یا حملات سایبری است. او اعتقاد دارد که این فناوری می‌تواند نحوه عملکرد نهادهای قدرت و دموکراسی را هم دستخوش تغییر و تحول قرار دهد.

رئیس هیئت‌مدیره سابق گوگل می‌گوید از آنجایی که مردم به باور‌کردن چیزهایی که می‌بینند و می‌شنوند، عادت کرده‌اند، هوش مصنوعی می‌تواند با تولید تصاویر و صداهای واقع‌گرایانه مشکلاتی را در‌زمینه نشر اطلاعات نادرست به‌وجود بیاورد.

بیشتر بخوانید  تاثیر هوش مصنوعی بر افزایش احساس تنهایی و بی‌خوابی در محل کار

درنتیجه فعالان صنعت فناوری باید گرد هم بیایند تا تدابیر محافظتی لازم را ایجاد کنند؛ چرا که این فناوری مدام بزرگ و بزرگ‌تر خواهد شد. اشمیت اضافه می‌کند: «همه روی بحث سوگیری تمرکز کرده‌اند که البته مشکل‌ساز بوده و تلاش برای حل آن شروع شده است. اما مشکل اصلی این است که وقتی این سیستم‌ها برای دستکاری زندگی روزمره مردم استفاده می‌شوند، عملاً شیوه تفکر، انتخاب و… آن‌ها را تغییر می‌دهند و این تغییرات بر عملکرد دموکراسی اثر می‌گذارد.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *