هشدار مرکز ملی امنیت سایبری بریتانیا نسبت به خطرات ChatGPT

با دوستان خود را به اشتراک بگذارید:

کارشناسان امنیتی افشای اطلاعات کاربران در کنار ارائه پاسخ‌های نادرست را از جمله مهم‌ترین خطرات ChatGPT و سرویس‌های مشابه با آن می دانند.

به گزارش ایرانی متا به نقل از دیجیاتو، مرکز ملی امنیت سایبری بریتانیا (NCSC) به‌تازگی نسبت به خطرات احتمالی سرویس ChatGPT به عموم هشدار داده است. این مدل هوش مصنوعی که در قالب چت‌بات ارائه می‌شود، در چند ماه گذشته توانسته است محبوبیت بالایی در بین کاربران به‌دست آورد و اکنون به شیوه‌های مختلفی قابل دسترس است.

آیا خطرات ChatGPT جدی و تهدیدکننده است؟

بسیاری از افراد چت‌بات شرکت OpenAI را به‌منظور دریافت پاسخ سؤالات خود یا صرفه‌جویی در زمان جستجو مورد استفاده قرار می‌دهند. عملکرد این هوش مصنوعی در برقراری مکالمه‌های واقعی با افراد حیرت‌انگیز بوده است و یکی از دلایل اصلی محبوبیت آن به شمار می‌رود. همچنین اخیراً مدل زبانی GPT-4 برای چت‌بات مذکور ارائه شده است که از قابلیت‌های بهبودیافته گوناگونی بهره می‌برد.

بااین‌حال کارشناسان مرکز ملی امنیت سایبری بریتانیا در پست اخیر وبلاگ خود خطرات احتمالی ChatGPT و سایر مدل‌های پردازش زبانی عظیم را به مردم گوشزد کرده‌اند. آن‌ها در پژوهش‌های صورت‌گرفته متوجه شده‌اند که پاسخ‌های ارائه‌شده توسط این چت‌بات و سایر نمونه‌های مشابه آن می‌تواند گمراه‌کننده و نادرست باشد.

همچنین احتمال دارد که برخی از پاسخ‌ها به پرسش‌های کاربران به‌صورت جهت‌دار، همراه با خشونت و نامناسب تلقی شود. به همین دلیل کاربران باید قبل استفاده از ابزارهای مبتنی بر هوش مصنوعی نسبت به مشکلات احتمالی آن‌ها واقف باشند.

کارشناسان امنیتی معتقد هستند که افراد باید نسبت به اطلاعاتی که در سرویس‌های مبتنی بر هوش مصنوعی به اشتراک می‌گذارند، حساسیت بیشتری نشان دهند. توصیه آن‌ها عدم به‌اشتراک‌گذاری داده‌های حساس با ChatGPT یا سایر مدل‌های پردازش زبانی است.

بیشتر بخوانید  چگونه Decentraland با استفاده از هوش مصنوعی، متاورس را زنده نگه می‌دارد؟

شایان ذکر است که این سرویس‌ها معمولاً داده‌های کاربران خود را به‌خوبی محافظت می‌کنند و در دید سایر افراد قرار نمی‌دهند؛ اما ذخیره حجم عظیمی از اطلاعات و دستورات در آن‌ها می‌تواند موجب جلب‌توجه هکرها جهت سرقت داده شود.  به همین دلیل بهتر است از مطرح‌کردن سؤالات مرتبط با زندگی شخصی یا کاری خود در چنین پلتفرم‌هایی خودداری کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *