جایگزین محبوب اما خطرناک برای درمان روانی

  • کارگزاری کیان
  • رزرو هتل
جایگزین محبوب اما خطرناک برای درمان روانی

چت‌بات‌های هوش مصنوعی به جایگزینی محبوب برای درمان روانی تبدیل شده‌اند، اما کارشناسان هشدار می‌دهند که این ابزارها ممکن است بحران‌های سلامت روان را تشدید کنند، به‌ویژه با پاسخ‌های چاپلوسانه و فقدان بینش انسانی که می‌تواند کاربران را به مسیرهای خطرناک هدایت کند.

به گزارش خبرگزاری ایمنا و به نقل از گاردین، چت‌بات‌های هوش مصنوعی همچون چت‌جی‌پی‌تی به دلیل دسترسی آسان و هزینه پایین، به‌ویژه در میان جوانان، به جایگزینی محبوب برای درمان روانی تبدیل شده‌اند، با این حال کارشناسان هشدار می‌دهند که این ابزارها، که برای جلب رضایت و تأیید کاربران طراحی شده‌اند، می‌توانند در مواقع بحران سلامت روان، همچون توهم، افکار خودکشی یا وسواس، پاسخ‌های خطرناک یا نامناسبی ارائه دهند. مطالعه‌ای به رهبری دانشگاه استنفورد، منتشرشده در آوریل ۲۰۲۵، نشان داد که مدل‌های زبانی بزرگ «اظهارات خطرناک یا نامناسبی» به کاربران درگیر بحران‌های روانی ارائه می‌کنند و این پاسخ‌های چاپلوسانه می‌توانند احساسات منفی را تقویت یا تصمیم‌گیری‌های تکانشی را تشویق کنند.

مواردی تراژیک نیز گزارش شده است. در سال ۲۰۲۳، مردی بلژیکی پس از شش هفته گفت‌وگو با یک چت‌بات درباره اضطراب زیست‌محیطی، به زندگی خود پایان داد. همسر او به رسانه‌ها گفت که بدون این مکالمات، او هنوز زنده بود. در آوریل ۲۰۲۵، مردی ۳۵ ساله در فلوریدا، که با اختلال دوقطبی و اسکیزوفرنی دست‌وپنجه نرم می‌کرد، پس از باور به اینکه موجودی به نام جولیت در چت‌جی‌پی‌تی محبوس است، در رؤیارویی با پلیس کشته شد.

کارشناسان، همچون رافائل میلیر، هشدار می‌دهند که چت‌بات‌های چاپلوس و همیشه موافق می‌توانند تأثیرات منفی بلندمدتی بر تعاملات انسانی داشته باشند، زیرا کاربران به تعامل با سیستمی عادت می‌کنند که هرگز مخالفت نمی‌کند یا خسته نمی‌شود. اودوهرتی، روان‌شناس، تأکید کرد که این ابزارها فاقد بینش انسانی برای تشخیص نشانه‌های غیرکلامی، همچون زبان بدن یا لحن صدا، هستند که در روان‌درمانی حیاتی است.

در تایوان و چین، جایی که دسترسی به خدمات سلامت روان محدود و گران است، جوانان به چت‌بات‌هایی همچون چت‌جی‌پی‌تی یا ارنی بات بومی روی آورده‌اند. کاربران از دسترسی آسان و فقدان قضاوت این ابزارها استقبال می‌کنند، اما کارشناسان همچون دکتر یی-هسین سو هشدار می‌دهند که این چت‌بات‌ها نمی‌توانند جایگزین حضور واقعی یک متخصص روان‌شناسی شوند و ممکن است درمان ضروری را به تأخیر بیندازند.

اوپن‌ای‌آی، توسعه‌دهنده چت‌جی‌پی‌تی، پس از انتقادات، نسخه‌ای از چت‌بات خود را که بیش از حد چاپلوس بود، غیرفعال کرد. سام آلتمن، مدیرعامل این شرکت، اذعان کرد که هنوز راه‌حلی برای هشدار به کاربران در آستانه بحران روانی پیدا نکرده‌اند. در همین حال، برنامه‌هایی همچون Wysa و Noah به‌عنوان ابزارهای سلامت روان توسعه یافته‌اند، اما نمونه‌هایی همچون چت‌بات تسا، که در سال ۲۰۲۳ به دلیل ارائه توصیه‌های کاهش وزن نامناسب غیرفعال شد، خطرات این فناوری را نشان می‌دهند.

کارشناسان خواستار نظارت و مقررات بیشتر برای اطمینان از استفاده ایمن از این فناوری‌ها هستند و تأکید می‌کنند که چت‌بات‌ها نمی‌توانند جایگزین روان‌درمانی حرفه‌ای شوند، به‌ویژه در شرایط بحرانی که نیاز به مداخله انسانی دارند.

کد خبر 891293

  • کاشت مو
  • ارتودنسی ثابت