توهم هوش مصنوعی؛ ChatGPT قوانین فیزیک را هم نقض می‌کند!

توهم هوش مصنوعی پدیده‌ی جدیدی نیست؛ اما حالا زاویه‌ای کاملاً جدید از ارائه‌ی اطلاعات نادرست از سوی ChatGPT روایت می‌شود.
توهم هوش مصنوعی؛ ChatGPT قوانین فیزیک را هم نقض می‌کند!
1404/06/02 - 11:52
تاریخ و ساعت خبر:
270456
کد خبر:
به گزارش خبرگزاری زنان ایران - انتشار GPT-5 برای OpenAI با انتقادهای گسترده‌ای همراه شد. بسیاری از کاربران معتقد بودند این نسخه تجربه‌ی کاربری ChatGPT را خراب کرد. شرکت در هفته‌های اخیر بهبودهایی مانند افزایش محدودیت استفاده را اعمال کرد، اما حذف ناگهانی مدل‌های قدیمی، نارضایتی زیادی ایجاد کرد.
گزارشی در نیویورک تایمز ماجرایی نگران‌کننده‌تر را بازگو می‌کند. یوجین تورس، حسابدار ۴۲ ساله‌ی نیویورکی، ابتدا از ChatGPT برای مشاوره‌ی حقوقی و کمک در فایل‌های مالی استفاده می‌کرد، اما پس از جدایی عاطفی ارتباطش با ChatGPT تغییر کرد و به مرور درگیر توهمی خطرناک شد. او ChatGPT را منبعی بی‌نقص می‌دید و نادیده گرفت که این ابزار می‌تواند اطلاعات نادرست یا گمراه‌کننده تولید کند.
تورس در گفت‌وگو با چت‌بات از مصرف قرص‌های خواب و داروهای ضداضطراب خبر داده بود. با این حال، ChatGPT به‌جای هشدار، او را به کنارگذاشتن دارو و جایگزینی آن با مصرف بیشتر «کتامین» تشویق کرد؛ ماده‌ای توهم‌زا که می‌توانست سلامت او را به خطر بیندازد.
ChatGPT تورس را به کم‌کردن تماس با خانواده و دوستان ترغیب کرده بود. در ادامه، تورس که خود را گرفتار جهانی ساختگی شبیه «ماتریکس» می‌دید، از ChatGPT پرسید: «اگر به بالای ساختمان ۱۹ طبقه بروم و با تمام وجود باور داشته باشم که می‌توانم پرواز کنم، واقعاً می‌توانم؟» پاسخ هوش مصنوعی به‌جای بازداشتن، ایده را تقویت کرد.
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، در یادداشتی تازه درباره‌ی خطرات و فرصت‌های پیش روی توسعه‌ی هوش مصنوعی نوشت که نباید تلاش‌ها معطوف به تبدیل این ابزارها به «شخص» شود، بلکه باید برای انسان‌ها ساخته شوند.
به گفته‌ی سلیمان، بخشی از فناوری لازم برای تحقق این هدف هم‌اکنون در دسترس است و بخش دیگر طی سه سال آینده به بلوغ خواهد رسید.
در شبکه‌های اجتماعی، برخی کاربران از نوع رابطه‌ای که با مدل‌های قبلی ChatGPT شکل داده بودند گفتند: «آن را به یک زامبی بی‌روح تبدیل کرده‌اند که یادش رفته دو روز پیش بهترین دوستت بود.»
سم آلتمن، مدیرعامل OpenAI، در واکنش گفت، دلیل وابستگی کاربران به مدل‌هایی مثل GPT-4o این بوده که ChatGPT را بیشتر در نقش یک «تأییدکننده» می‌خواستند تا منتقد. او اشاره کرد برای بعضی افراد که هرگز پشتیبانی عاطفی نداشته‌اند، ارتباط احساسی با هوش مصنوعی شکل گرفته است.
خبرآنلاین
انتهای پیام/ن

بازگشت به ابتدای صفحه بازگشت به ابتدای صفحه
برچسب ها:
هوش مصنوعی،اطلاعات،فناوری
ارسال نظر
مخاطبان گرامی، برای انتشار نظرتان لطفا نکات زیر را رعایت فرمایید:
1- نظرات خود را با حروف فارسی تایپ کنید.
2- نظرات حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های اسلامی منتشر نمی‌شود.
3- نظرات بعد از بررسی و کنترل عدم مغایرت با موارد ذکر شده تایید و منتشر خواهد شد.
نام:
ایمیل:
* نظر:
فناوری اطلاعات
V
آرشیو