احتمال وضع قوانین برای مدل‌های هوش مصنوعی مانند ChatGPT در آمریکا

با دوستان خود را به اشتراک بگذارید:

اداره ملی ارتباطات و اطلاعات از کاربران برای وضع قوانینی که خالقان هوش مصنوعی باید از آن‌ها پیروی کنند، نظرخواهی کرد.

به گزارش ایرانی متا، دیجیاتو نوشت: مقامات آمریکایی در حال برداشتن گام‌های بیشتری برای تعیین قوانین سیستم‌های هوش مصنوعی مانند ChatGPT هستند. در همین رابطه، اداره ملی ارتباطات و اطلاعات (NTIA) در جدیدترین اقدام خود در مورد مقررات احتمالی که خالقان هوش مصنوعی باید از آن‌ها پیروی کند، نظرات عموم کاربران را درخواست کرده است. NTIA می‌گوید که این اقدامات به دولت بایدن کمک خواهد کرد تا اطمینان پیدا کند که مدل‌های هوش مصنوعی بدون هیچ آسیبی به امنیت ملی عمل می‌کنند.

طبق گزارش Engadget، اداره ملی ارتباطات و اطلاعات در زمینه‌هایی مانند محرک‌های قابل اعتماد هوش مصنوعی، روش‌های تست ایمنی و همچنین میزان دسترسی به داده‌های مورد نیاز برای ارزیابی سیستم‌ها از کاربران نظرخواهی کرده است. این آژانس همچنین در صورت نیاز، استراتژی‌های متفاوتی را برای حوزه‌های خاصی مانند مراقبت‌های بهداشتی در نظر دارد.

کاربران تا 10 ژوئن می‌توانند نظرات خود در این زمینه را ثبت کنند. NTIA وضع چنین قوانینی را یک امر حیاتی می‌داند. ناظر این سازمان می‌گوید که در حال حاضر خطرات زیادی وجود دارد که در آن‌ها هوش مصنوعی آسیب‌رسانی می‌کند. قوانین نه تنها می‌تواند از تکرار این حوادث جلوگیری کند، بلکه احتمال وقوع خطرات را به حداقل می‌رساند.

ChatGPT و سایر مدل‌های هوش مصنوعی مولد مشابه تاکنون با مشکلاتی از جمله نشت داده‌های حساس و نقض حق نسخه‌برداری مواجه شده‌اند و این موضوع نگرانی‌هایی در زمینه اطلاعات نادرست و کمپین‌های بدافزار ایجاد کرده است. در همین رابطه، گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقه‌مندان به این حوزه ازجمله «ایلان ماسک»، مدیرعامل توییتر و «استیو وزنیاک»، هم‌بنیان‌گذار اپل در نامه‌ای سرگشاده خواسته بودند که تا حداقل 6 ماه آینده توسعه مدل‌های قدرتمندتر از GPT-4 را متوقف کنند. علاوه بر این، استفاده از ChatGPT به‌دلیل نگرانی‌های حریم خصوصی کاربران، در ایتالیا ممنوع شد و ظاهراً آلمان نیز چنین برنامه‌ای را دنبال می‌کند.

بیشتر بخوانید  هوش مصنوعی و 300 میلیون شغلی که اتوماتیک می‌شوند؛ چه شغل‌هایی در خطرند؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *