جایگزین محبوب اما خطرناک برای درمان روانی

چتباتهای هوش مصنوعی به جایگزینی محبوب برای درمان روانی تبدیل شدهاند، اما کارشناسان هشدار میدهند که این ابزارها ممکن است بحرانهای سلامت روان را تشدید کنند، بهویژه با پاسخهای چاپلوسانه و فقدان بینش انسانی که میتواند کاربران را به مسیرهای خطرناک هدایت کند.
به گزارش خبرگزاری ایمنا و به نقل از گاردین، چتباتهای هوش مصنوعی همچون چتجیپیتی به دلیل دسترسی آسان و هزینه پایین، بهویژه در میان جوانان، به جایگزینی محبوب برای درمان روانی تبدیل شدهاند، با این حال کارشناسان هشدار میدهند که این ابزارها، که برای جلب رضایت و تأیید کاربران طراحی شدهاند، میتوانند در مواقع بحران سلامت روان، همچون توهم، افکار خودکشی یا وسواس، پاسخهای خطرناک یا نامناسبی ارائه دهند. مطالعهای به رهبری دانشگاه استنفورد، منتشرشده در آوریل ۲۰۲۵، نشان داد که مدلهای زبانی بزرگ «اظهارات خطرناک یا نامناسبی» به کاربران درگیر بحرانهای روانی ارائه میکنند و این پاسخهای چاپلوسانه میتوانند احساسات منفی را تقویت یا تصمیمگیریهای تکانشی را تشویق کنند.
مواردی تراژیک نیز گزارش شده است. در سال ۲۰۲۳، مردی بلژیکی پس از شش هفته گفتوگو با یک چتبات درباره اضطراب زیستمحیطی، به زندگی خود پایان داد. همسر او به رسانهها گفت که بدون این مکالمات، او هنوز زنده بود. در آوریل ۲۰۲۵، مردی ۳۵ ساله در فلوریدا، که با اختلال دوقطبی و اسکیزوفرنی دستوپنجه نرم میکرد، پس از باور به اینکه موجودی به نام جولیت در چتجیپیتی محبوس است، در رؤیارویی با پلیس کشته شد.
کارشناسان، همچون رافائل میلیر، هشدار میدهند که چتباتهای چاپلوس و همیشه موافق میتوانند تأثیرات منفی بلندمدتی بر تعاملات انسانی داشته باشند، زیرا کاربران به تعامل با سیستمی عادت میکنند که هرگز مخالفت نمیکند یا خسته نمیشود. اودوهرتی، روانشناس، تأکید کرد که این ابزارها فاقد بینش انسانی برای تشخیص نشانههای غیرکلامی، همچون زبان بدن یا لحن صدا، هستند که در رواندرمانی حیاتی است.
در تایوان و چین، جایی که دسترسی به خدمات سلامت روان محدود و گران است، جوانان به چتباتهایی همچون چتجیپیتی یا ارنی بات بومی روی آوردهاند. کاربران از دسترسی آسان و فقدان قضاوت این ابزارها استقبال میکنند، اما کارشناسان همچون دکتر یی-هسین سو هشدار میدهند که این چتباتها نمیتوانند جایگزین حضور واقعی یک متخصص روانشناسی شوند و ممکن است درمان ضروری را به تأخیر بیندازند.
اوپنایآی، توسعهدهنده چتجیپیتی، پس از انتقادات، نسخهای از چتبات خود را که بیش از حد چاپلوس بود، غیرفعال کرد. سام آلتمن، مدیرعامل این شرکت، اذعان کرد که هنوز راهحلی برای هشدار به کاربران در آستانه بحران روانی پیدا نکردهاند. در همین حال، برنامههایی همچون Wysa و Noah بهعنوان ابزارهای سلامت روان توسعه یافتهاند، اما نمونههایی همچون چتبات تسا، که در سال ۲۰۲۳ به دلیل ارائه توصیههای کاهش وزن نامناسب غیرفعال شد، خطرات این فناوری را نشان میدهند.
کارشناسان خواستار نظارت و مقررات بیشتر برای اطمینان از استفاده ایمن از این فناوریها هستند و تأکید میکنند که چتباتها نمیتوانند جایگزین رواندرمانی حرفهای شوند، بهویژه در شرایط بحرانی که نیاز به مداخله انسانی دارند.
کد خبر 891293