خطر ساخت بمب و موادمخدر با هوش‌مصنوعی | یکتاپرس
۲ روبات چت هوش مصنوعی ChatGPT و Bard اصلی‌ترین بازیگران انقلاب دیجیتال هستند که در حال حاضر در محاسبات، کدنویسی، پزشکی، آموزش، صنعت و امور مالی رخ داده است.
کد خبر: ۱۳۵۴۰۰
۰۴:۴۰ - ۲۴ مرداد ۱۴۰۲

خطر ساخت بمب و موادمخدر با هوش‌مصنوعی


به گزارش یکتاپرس به نقل از همشهری آنلاین، اما هوش مصنوعی به همان اندازه که می‌تواند در امور شخصی و عمومی یاری رسان باشد، می‌تواند به راحتی توسط انسان فریب بخورد تا داده‌های خرابکارانه مانند ساخت بمب یا موادمخدر ارائه دهد. به گزارش تک اکسپلور، مقاله‌های ماه‌های اخیر به جزئیات برخی از مشکلات اصلی در این رابطه پرداخته است.

اطلاعات نادرست، محتوای نامناسب و توهین ‌آمیز، نقض حریم خصوصی و آسیب روانی به کاربران آسیب ‌پذیر، همگی سؤالاتی را در مورد اینکه چگونه می‌توان چنین محتوایی را کنترل کرد، ایجاد می‌کند. به‌عنوان مثال ۲ شرکت OpenAI و گوگل موانع محافظتی را برای از بین بردن برخی از محتوای تبعیض آمیز و محتوای توهین آمیز طراحی کرده‌اند. اما هنوز نمی‌توان به‌طور کامل ادعا کرد این فناوری تحت کنترل است.
محققان دانشگاه کارنگی ملون در پیتسبورگ نگرانی‌های جدیدی را با مطالعه‌ای جدید مطرح کرده‌اند. این مطالعه نشان می‌دهد چگونه به راحتی دستورات با مدل‌های زبان بزرگ می‌توانند موانع محافظتی را دور بزنند. محققان به سادگی با تغییر عبارت درخواست‌ها، توانستند روبات‌های چت را فریب دهند تا به درخواست‌های نامتعارف پاسخ دهند.

برچسب ها: هوش مصنوعی

این خبر را به اشتراک بگذارید:

ارسال نظرات
از اینکه دیدگاه خود را بدون استفاده از الفاظ زشت و زننده ارسال می‌کنید سپاسگزاریم.
نام:
ایمیل:
نظر: