طبق اعلام شرکت نورتون، کلاهبرداران از طریق خلق محتوا با کمک دیپفیک، فیشینگ و تولید سریع بدافزارها امکان سوءاستفاده از ChatGPT را فراهم می کنند.
به گزارش ایرانی متا به نقل از دیجیاتو، کارشناسان امنیت سایبری میگویند کلاهبرداران اینترنتی احتمالاً با کمک قابلیتهای چتبات هوش مصنوعی ChatGPT بسیار خطرناکتر خواهند شد و برای مقابله با این خطرات باید تمهیدات جدیدی را اندیشید تا امنیت کاربران حفظ شود.
شرکت نورتون در گزارش جدیدی اشاره کرده است که کلاهبرداران به سه روش عمده میتوانند از ChatGPT سوءاستفاده کنند تا حملات خود را بهشکلی مؤثرتر انجام دهند.
این سه روش شامل خلق محتوا با کمک دیپفیک، فیشینگ و تولید سریع بدافزارها میشود.
نورتون همچنین میگوید توانایی تولید اطلاعات گمراهکننده و نادرست با کیفیت بالا و در مقیاس گسترده احتمالاً به مهاجمان اجازه میدهد تا بهطور مؤثرتر از قبل حملات خود را پیادهسازی کنند و راحتتر روایتها را در زبانهای مختلف شکل دهند.
چتبات ChatGPT حتی میتواند به تولید حجم بالایی از بررسیهای جعلی برای محصولات مختلف کمک کند و این بررسیها را با لحنهای گوناگون بنویسد.
این هوش مصنوعی همچنین میتواند در حملات هدفمند برای آزار یا زورگویی به افراد در شبکههای اجتماعی استفاده شود و پیامدهای هولناکی بهدنبال داشته باشد.
ChatGPT شناسایی حملات سایبری را سختتر میکند
نورتون میگوید درحالحاضر بسیاری از کارزارهای فیشینگ توسط کسانی پیادهسازی میشود که به زبان انگلیسی مسلط نیستند و معمولاً اشتباهات آنها به کاربران نشان میدهد که با یک کلاهبرداری مواجه هستند. اما ChatGPT میتواند این مسئله را حل کند و متونی قانعکننده و تقریباً بدون اشکال بنویسد.
با تمام این تفاصیل، احتمالاً باید منتظر افزایشی در آمار و پیچیدگی حملات کلاهبرداری و بدافزارهای مرتبط با آن باشیم. علاوهبراین، توانایی ChatGPT در تبدیل کد برنامهها به زبانهای کمترشناختهشده میتواند شناسایی بدافزار توسط آنتیویروسها را دشوار کند.
محققان امنیتی نورتون میگویند کلاهبرداران همواره از ابزارهای جدید و پیشرفته به نفع خود سوءاستفاده کردهاند و ChatGPT هم از این قاعده مستثنی نیست. حالا وظیفه جامعه متخصصان و کاربران است که راهکارهایی را برای مقابله با این تهدیدات معرفی کنند و ایمنی افراد را ارتقا دهند.