انقلاب هوش مصنوعی در عرصۀ سلامت روان
هوش مصنوعی، به ویژه ChatGPT، با سرعتی حیرتانگیز در حال شکل دهی به آیندۀ مراقبت از سلامت روان و بازتعریف شیوههای سنتی ارائه خدمات آن است. تعداد رو به افزایشی از افراد—به خصوص نسل جوان و جمعیتهای کمبرخوردار—به چتباتهای هوش مصنوعی به عنوان ابزار درمانی روی میآورند، چرا که این ابزارها در دسترس، ناشناس و مقرون به صرفه هستند. با این حال، میان کارشناسان بر سر اثربخشی و ایمنی آنها بحثهای فراوانی وجود دارد. آیا هوش مصنوعی می تواند همدمی برای انسان باشد یا این اتصال دیجیتال، تنها توهمی از درک شدن است؟
نوید اثربخشی — دادههای امیدوارکننده
مطالعات علمی اخیر نشان دادهاند که مکالمههای درمانی با چت باتها مانند ChatGPT میتوانند به طور قابل توجهی علائم افسردگی، اضطراب و دیگر مشکلات روانی را کاهش دهند. یک فراتحلیل (Meta-analysis) بزرگ در سال ۲۰۲۴ که هزاران کاربر را شامل میشد، بهبودهای متوسطی در علائم افسردگی و اضطراب بهخصوص در زمانی که فناوری چتباتها در اپلیکیشنهای سلامت روان بهکار گرفته شده بود، نشان داد. پژوهشها حاکی از آن است که این چتباتها نه تنها در حمایت از افراد با افسردگی خفیف موثرند، بلکه توانستهاند برنامههای درمانی مشابه یا حتی در مواردی بهتر از برخی رواندرمانیهای معمول ارائه دهند.
حتی مطالعۀ تصادفی کنترلشدهای (Randomized controlled trial) در سال ۲۰۲۵ گزارش داد که یک چتبات درمانی هوش مصنوعی مولد به نام «Therabot»، فواید بالینی مشابه یا حتی بهتر از برخی درمانهای روانشناختی معمولی در دورههای ۴ تا ۸ هفتهای ارائه کرد، به طوری که کاربران ارتباط درمانی معادل با درمانگران انسانی را با این چتبات احساس کردند.
علاوه بر این، ChatGPT توانایی بالایی در ابراز همدلی، درک عاطفی و ارائه پاسخهایی درخور شرایط را دارد. کاربران اغلب از در دسترس بودن دائمی، نبود قضاوت و توانایی ارائه راهنماییهای شخصیسازی شده آن تمجید میکنند که میتواند به عنوان تسکین فوری از لحاظ روانی کمک کند.
محدودیتها و خطرات پنهان — روی دیگر سکه
با وجود این پیشرفتها، درمانگران انسانی در حوزههای کلیدی مانند تنظیم دستور جلسه، ایجاد روابط درمانی عمیق و اجرای روشهای پیچیده رفتار درمانی شناختی، همواره عملکرد بهتری نسبت به چتبات ها دارند. درمانهای هوش مصنوعی اغلب انعطافناپذیر و فاقد عمق عاطفی لازم برای درمان موثر بلندمدت، به ویژه در موارد شدید و بحرانی، توصیف میشوند. همچنین چتباتهای هوش مصنوعی تمایل بسیار شدیدی به تایید شما دارند تا احساس بهتری داشته باشید؛ در صورتی که یک رواندرمانگر میتواند بسیار عمیقتر شما را نسبت به واقعیت و نقاط کورتان آگاه کند.
متخصصان هشدار میدهند که چتباتها نمیتوانند جایگزین تشخیص حرفهای، مدیریت دارویی شخصیسازی شده یا مداخلات اضطراری شوند. نگرانیهای جدی درباره سوء تعبیر مشاورههای هوش مصنوعی به عنوان راهنمای پزشکی واقعی و تعویق در دریافت کمک حضوری وجود دارد. همچنین مدلهای هوش مصنوعی فعلی تخصصی در پیشگیری از خودکشی ندارند و ممکن است نتوانند زبان استعاری یا غیرمستقیم را درست تفسیر کنند، که میتواند افراد را در معرض خطر بیشتری قرار دهد. سم آلتمن، مدیرعامل اجرایی شرکت OpenAI نیز هشدار داده است که کاربران نباید اطلاعات بسیار شخصی یا حساس خود را با هوش مصنوعی به اشتراک بگذارند.
علاوه بر این، گزارشهایی از برخی درمانگران منتشر شده که در جلساتشان به صورت پنهانی از ChatGPT استفاده میکنند. این مسئله، نگرانیهایی جدی پیرامون مسائل اخلاقی در زمینه شفافیت و اعتماد بیماران را بهدنبال داشته است.
کلام آخر
توصیه کلی این است که ChatGPT و چتباتهای مشابه باید به عنوان ابزارهای مکمل، نه جایگزینهای مطلق درمان، دیده شوند. این ابزارها میتوانند به کاربران کمک کنند تا علائم خود را بهتر بیان کنند و از حمایت در مواقع اضطرار خفیف بهرهمند شوند. همچنین اگر با مشکلات جدی سلامت روان دست و پنجه نرم می کنید، پیشنهاد کارشناسان این است که حتما به یک فرد متخصص مراجعه کنید.
با پیشرفت درمانهای هوش مصنوعی، پژوهش مستمر، نظارت اخلاقی و تنظیم مقررات، ضروری است تا اجرای ایمن، عادلانه و اثربخش آن تضمین شود. آینده احتمالاً شامل مدلهای ترکیبی خواهد بود که مقیاسپذیری هوش مصنوعی را با همدلی و تخصص انسانی برای ارائۀ مراقبت روانی شخصیسازی شده آمیخته میکند.
