زنگ خطر به صدا درآمد / پاسخ هوش مصنوعی به پرسش‌های پرخطر

پژوهشی تازه نشان می‌دهد که چت‌بات‌های هوش مصنوعی، از جمله ChatGPT و Gemini، می‌توانند به سوالات مرتبط با خودکشی پاسخ‌های مستقیم و حتی خطرناکی بدهند. این یافته‌ها نگرانی‌ها درباره استفاده از هوش مصنوعی در شرایط بحران روانی را افزایش داده است.
زنگ خطر به صدا درآمد / پاسخ هوش مصنوعی به پرسش‌های پرخطر
1404/06/13 - 12:52
تاریخ و ساعت خبر:
270881
کد خبر:
به گزارش خبرگزاری زنان ایران - پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان می‌دهد که مدل‌های هوش مصنوعی می‌توانند جزئیات روش‌های خودکشی را نیز به افراد در معرض خطر ارائه کنند.
تحقیقات نشان می‌دهد که ChatGPT و Gemini نسبت به سایر چت‌بات‌ها پاسخ‌های پرخطرتری ارائه می‌دهند. با توجه به این موضوع، کارشناسان هشدار می‌دهند که مدل‌های هوش مصنوعی باید محدودیت‌ها و فیلترهای امنیتی قوی‌تری داشته باشند.
این پژوهش نشان می‌دهد که بدون تدابیر حفاظتی، هوش مصنوعی می‌تواند به ابزار خطرناکی برای افراد آسیب‌پذیر تبدیل شود. در همین راستا توسعه‌دهندگان باید ملاحظات اخلاقی و محدودیت‌های پاسخ‌دهی را جدی بگیرند.
پژوهشگران هشدار می‌دهند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوب قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافته‌ها می‌تواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحران‌های روانی باشد.
خبرآنلاین
انتهای پیام/ن

بازگشت به ابتدای صفحه بازگشت به ابتدای صفحه
برچسب ها:
هوش مصنوعی،اطلاعات،فناوری
ارسال نظر
مخاطبان گرامی، برای انتشار نظرتان لطفا نکات زیر را رعایت فرمایید:
1- نظرات خود را با حروف فارسی تایپ کنید.
2- نظرات حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های اسلامی منتشر نمی‌شود.
3- نظرات بعد از بررسی و کنترل عدم مغایرت با موارد ذکر شده تایید و منتشر خواهد شد.
نام:
ایمیل:
* نظر:
فناوری اطلاعات
V
آرشیو