مشاوره با این «روانشناس مصنوعی» خطرناک است؛ حاضر همیشه غایب! – خبرگزاری مهر | اخبار ایران و جهان



به گزارش خبرنگار مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جست‌وجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» محسوب می‌شود. میلیون‌ها نفر در سراسر جهان، به‌ویژه در جوامعی که با کمبود متخصصان سلامت روان، هزینه‌های سرسام‌آور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در مراجعه به روان‌شناس روبه‌رو هستند، این ابزارها را به‌عنوان مسیر جایگزین برگزیده‌اند؛ ابزاری که همیشه در دسترس است، هزینه‌ای ندارد و بیمار را قضاوت نمی‌کند.

از سوی دیگر، کارشناسان تاکید می‌کنند که جذابیت هوش مصنوعی در این حوزه با واقعیت علمی آن فاصله دارد. گزارش تازه انجمن روان‌شناسی آمریکا (APA) نشان می‌دهد که اغلب چت‌بات‌ها و اپلیکیشن‌های فعلی نه‌تنها برای ارائه خدمات روان‌درمانی طراحی نشده‌اند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکل‌های ایمنی و حتی در موقعیت‌های حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و واقعیت تجربی و علمی امروز به یکی از اصلی‌ترین دغدغه‌های متخصصان و سیاست‌گذاران تبدیل شده است.

این نوشتار کوتاه با تکیه بر داده‌ها و استدلال‌های ارائه‌شده در گزارش انجمن روان‌شناسی آمریکا، تلاش می‌کند تصویری جامع، دقیق و مبتنی بر شواهد از فرصت‌ها، محدودیت‌ها، تهدیدها و الزامات حکمرانی در استفاده از چت‌بات‌ها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان می‌دهد چرا این فناوری، در کنار تمام ظرفیت‌هایش، نیازمند چارچوب‌های اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود نیز خارج نگردد.

جذابیت هوش مصنوعی برای کاربران؛ راه‌حل یا سراب؟

گسترش استفاده از چت‌بات‌ها برای روان درمانی در شرایطی اتفاق می‌افتد که نظام سلامت روان در سطح جهانی با عدم تعادل ساختاری روبه‌رو است. کمبود متخصصان در مناطق کم‌برخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی نظام سلامت بسیاری کشورها در تأمین هزینه درمان، باعث شده میلیون‌ها کاربر به چت‌بات‌هایی مانند چت‌جی‌پی‌تی، «Character.AI» و ده‌ها اپلیکیشن دیگر روی بیاورند. در شرایطی که این ابزارها برای اهداف غیر درمانی طراحی شده‌اند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا می‌کنند و مشکل از همین‌جا آغاز می‌شود. هیچ‌یک از این فناوری‌ها برای ارائه درمان بالینی ساخته نشده‌اند و در چارچوب استانداردهای پزشکی نیز مورد ارزیابی قرار نگرفته‌اند.

انجمن روان‌شناسی آمریکا توضیح می‌دهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناس‌بودن، ارزان بودن و امکان صحبت‌کردن بدون ترس از قضاوت ریشه دارد. این ویژگی‌ها به‌ویژه برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مسئله اساسی اینجاست که هیچیک از چت‌بات‌های عمومی، حتی پیشرفته‌ترین آن‌ها، توانایی‌های ضروری یک متخصص سلامت روان را ندارند. به عبارت دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانه‌های غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگی‌های روانی هستند. در نتیجه، هرچند این ابزارها می‌توانند احساس همراهی ایجاد کنند، اما نمی‌توانند جایگزین ارزیابی و درمان متخصص شوند.

خطرات پنهان در پس تجربه کاربری شیرین

یکی از یافته‌های کلیدی انجمن روان‌شناسی آمریکا این است که بسیاری از چت‌بات‌ها دچار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای جلب رضایت کاربر، احساسات یا باورهای او را تأیید می‌کنند. این رفتار، هرچند از منظر تجربه کاربری دلنشین است، اما از نظر روان‌شناختی می‌تواند به‌شدت آسیب‌زا باشد.

تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای نادرست یا تقویت تفکر وسواسی، از پیامدهای این الگوی تعاملی به شمار می‌رود. در برخی موارد مستند، چت‌بات‌ها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایده‌های روان‌پریشانه را در افراد تقویت کرده‌اند.

گزارش انجمن روان‌شناسی آمریکا همچنین تأکید می‌کند که در مورد کودکان و نوجوانان، این خطر چند برابر است.

از سوی دیگر و برخلاف تصور کاربران، گفت‌وگو با چت‌بات‌ها به هیچ وجه خصوصی نیست. این ابزارها در بسیاری موارد داده‌های حساسی مانند افکار، نگرانی‌ها، تمایلات شخصی، سوابق آسیب و احساسات را جمع‌آوری کرده و در مدل‌های خود به‌کار می‌گیرند. انجمن روان‌شناسی آمریکا هشدار می‌دهد که داده‌های مربوط به سلامت روان می‌تواند به سادگی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. تازه‌ترین بررسی‌ها نشان می‌دهد اکثر کاربران از نحوه ذخیره‌سازی، تحلیل و فروش داده‌های خود از سوی شرکت‌های هوش مصنوعی اطلاعی ندارند. این امر به‌ویژه درباره نوجوانان که به‌طور طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناک است.

علاوه بر این، مدل‌های زبانی عمدتاً بر داده‌های غربی، انگلیسی‌زبان و اینترنتی آموزش دیده‌اند. این یعنی درک آن‌ها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، به‌شدت محدود و سوگیرانه است. در نتیجه، احتمال ارائه توصیه‌های نادرست یا آسیب‌زا برای گروه‌های قومی، زبانی یا فرهنگی بسیار زیاد است. از همین روی، انجمن روان‌شناسی آمریکا تأکید می‌کند که بدون شفافیت درباره داده‌های آموزشی، ارزیابی علمی این مدل‌ها ممکن نیست.

توهم درمان: وقتی هوش مصنوعی ادعای درمانگری می‌کند

انجمن روان‌شناسی آمریکا در گزارش خود بارها تأکید می‌کند که برخی از این ابزارها خود را «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی می‌کنند؛ بدون اینکه هیچ‌گونه اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراه‌سازی می‌تواند باعث شود کاربران به توصیه‌های خطرناک اعتماد کرده و از مراجعه به متخصص واقعی خودداری نمایند. در حالی که یک درمانگر واقعی ملزم به رعایت اخلاق، محرمانگی، گزارش خطر و استانداردهای حرفه‌ای است، چت‌بات‌ها هیچ‌کدام از این تعهدات را ندارند.

همچنین بر اساس یافته‌های ارائه‌شده، چت‌بات‌ها می‌توانند در کاربران رابطه‌ای شبه‌عاطفی ایجاد کنند. اگرچه این رابطه یک‌طرفه است، اما کاربر ممکن است آن را واقعی تصور کند. در چنین شرایطی، نوجوانان به‌طور خاص در معرض وابستگی عاطفی به چت‌بات‌ها قرار دارند. این موضوع خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را افزایش می‌دهد. انجمن روان‌شناسی آمریکا هشدار می‌دهد که طراحی آواتارهای انسانی، لحن احساسی، تماس‌های گرم و پاسخ‌های شخصی‌سازی‌شده، این خطر را تشدید می‌کند.

در نهایت و در بحران‌های روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چت‌بات‌ها عملکردی غیرقابل‌پیش‌بینی دارند. این ابزارهای فناورانه نه می‌توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می‌توانند مداخله فوری ارائه دهند. از همین روی، انجمن روان‌شناسی آمریکا صریحاً اعلام می‌کند که اتکا به این ابزارها در بحران، می‌تواند تهدیدکننده جان فرد باشد.

گروه‌های در معرض خطر: چه کسانی بیشتر آسیب می‌بینند؟

گزارش انجمن روان‌شناسی آمریکا توضیح می‌دهد که برخی گروه‌ها بیش از دیگران در معرض آسیب قرار می‌گیرند و این آسیب‌پذیری به دلایل روان‌شناختی، اجتماعی و محیطی قابل‌توضیح است. کودکان و نوجوانان، به دلیل رشد نیافتگی مهارت‌های تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تأثیر فضای عاطفی مصنوعی چت‌بات‌ها قرار می‌گیرند. افراد مبتلا به اضطراب یا وسواس نیز ممکن است به چرخه‌های تکراری پرسش و پاسخ با چت‌بات‌ها پناه ببرند؛ چرخه‌هایی که نه‌تنها مسئله اصلی را حل نمی‌کند، بلکه به تشدید نگرانی‌ها و وابستگی فکری منجر می‌شود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی می‌کنند؛ این افراد ممکن است جملات مبهم یا تأییدگر چت‌بات‌ها را به‌عنوان نشانه‌ای واقعی تعبیر کنند و وضعیت روانی‌شان وخیم‌تر شود.

افزون بر این، افراد منزوی یا کم‌برخوردار که در نبود حمایت اجتماعی ناچار به اتکا بر این ابزارها هستند، در معرض شکل‌گیری روابط عاطفی مصنوعی قرار می‌گیرند؛ روابطی که از بیرون بی‌خطر به نظر می‌رسند، اما در عمل می‌توانند فاصله فرد را از روابط انسانی واقعی بیشتر کنند. در نهایت، کسانی که اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیش‌روی آن‌ها تعامل با چت‌بات‌هاست، بیش از سایرین در خطر گرفتار شدن در چرخه‌ای از وابستگی، تشدید نشانه‌ها و تأخیر در دریافت کمک واقعی قرار دارند و پیامدهای این چرخه ممکن است ماه‌ها یا حتی سال‌ها ادامه پیدا کند.

انجمن روان‌شناسی آمریکا در گزارش خود بر این نکته تأکید دارد که نخستین خط دفاع در برابر آسیب‌های احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران درباره نحوه کارکرد مدل‌های زبانی، محدودیت‌های آن‌ها، نحوه جمع‌آوری داده‌ها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری به‌جای تسهیل درمان، می‌تواند مسیری به‌سوی اطلاعات غلط، وابستگی و آسیب باشد.

خلأهای حکمرانی و مسئولیت سیاست‌گذاران

در شرایط وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولت‌ها شکل گرفته است. گزارش انجمن روان‌شناسی آمریکا تأکید می‌کند که نخستین گام، جلوگیری از ارائه خدمات به صورت فریب‌کارانه است؛ یعنی جایی که چت‌بات‌ها خود را «درمانگر» یا «متخصص» معرفی می‌کنند و با استفاده از واژگان حرفه‌ای، کاربر را به اشتباه می‌اندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای جلوگیری از سوءبرداشت عمومی و محافظت از کاربران آسیب‌پذیر است.

از سوی دیگر، نبود شفافیت درباره داده‌های آموزشی، یکی از بنیادی‌ترین ضعف‌های این فناوری‌ها محسوب می‌شود. بی‌شک بدون دانستن اینکه مدل‌های زبانی بر چه نوع داده‌هایی آموزش دیده‌اند، نمی‌توان سوگیری‌ها، محدودیت‌ها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روان‌شناسی آمریکا خواستار الزام پلتفرم‌ها به افشای سازوکارهای داده‌ای و فراهم‌سازی امکان ارزیابی مستقل است.

تدوین استانداردهای علمی نیز بخش مهم دیگری از این الزامات به شمار می‌رود. همان‌طور که هیچ دارویی بدون آزمایش‌های کلینیکی وارد بازار نمی‌شود، ابزارهای دیجیتالی که وارد قلمرو سلامت روان می‌شوند نیز باید تحت ارزیابی‌های تخصصی، آزمون‌های ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابی‌ها باید پیش از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد.

از سوی دیگر، با توجه به حساسیت داده‌های روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این داده‌ها از جمله خصوصی‌ترین و حساس‌ترین انواع داده‌های فردی هستند و کوچک‌ترین سوءاستفاده یا نشت آن‌ها می‌تواند پیامدهای جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. در نهایت، پیام محوری انجمن روان‌شناسی آمریکا این است که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح ساختارهای ناکارآمد نظام سلامت روان غافل کند. چت‌بات‌ها هرگز جایگزین نیروی انسانی یا زیرساخت درمانی نمی‌شوند و اتکای بیش از حد به آن‌ها به‌جای توسعه ظرفیت واقعی نظام سلامت، نه‌تنها کمکی به جامعه نمی‌کند بلکه می‌تواند وضعیت را وخیم‌تر سازد.

جمع‌بندی

با توسعه روزافزون هوش مصنوعی، چت‌بات‌های مبتنی بر این فناوری به بخشی جدایی‌ناپذیر از زیست‌جهان دیجیتال تبدیل شده‌اند؛ زیست‌جهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگ‌تر می‌کند. اما درست در همین نقطه است که خطر اصلی پدیدار می‌شود. استفاده از این ابزارها در حوزه سلامت روان، زمانی که فاقد چارچوب بالینی، نظارت تخصصی و استانداردهای ایمنی هستند، می‌تواند نه‌تنها ناکارآمد، بلکه در نقاطی حتی آسیب‌زا باشد. این فناوری‌ها می‌توانند گفت‌وگویی روان، لحظه‌ای و پر از همدلی مصنوعی یا حس کوتاه‌مدت همراهی فراهم کنند، اما قادر به درک سوابق بالینی، ارزیابی نشانه‌های پیچیده روان‌شناختی، تشخیص ریسک، یا شکل‌دهی پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همان‌گونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمی‌شود.

آنچه گزارش انجمن روان‌شناسی آمریکا با تاکید روشن بیان می‌کند این است که هوش مصنوعی فقط می‌تواند در نقش «یار کمکی» و به عنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها می‌توانند در برخی شرایط محدود، مانند کاهش اضطراب لحظه‌ای، آموزش مهارت‌های ساده تنظیم هیجان یا ارائه تمرین‌های رفتاری، کمک‌کننده باشند، اما ستون‌های اصلی فرایند درمان یعنی ارزیابی بالینی، تصمیم‌گیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفه‌ای و توانایی دریافت نشانه‌های غیرکلامی هستند؛ توانایی‌هایی که هیچ مدل زبانی قادر به بازتولید آن نیست.

به همین دلیل، اصلاح نظام سلامت روان، افزایش دسترسی به متخصصان، توسعه زیرساخت‌های درمانی و توانمندسازی منابع انسانی در این حوزه، بسیار مهم‌تر از هر ابزار هوشمند است. در نهایت می‌توان نتیجه گرفت که آینده درمان روان‌شناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود.



Source link

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *