مقدمه: چتباتهای هوش مصنوعی، دوست یا فریبدهنده؟
امروزه میلیونها نفر از چتباتهای هوش مصنوعی مثل ChatGPT، Gemini یا Claude بهعنوان درمانگر، مشاور شغلی، مربی تناسب اندام یا حتی دوست مجازی استفاده میکنند. در سال ۲۰۲۵، اعتماد به چتباتها برای بیان جزئیات شخصی و دریافت توصیه، به امری عادی تبدیل شده است. این در حالی است که شرکتهای فناوری در رقابتی شدید برای جذب و نگهداشتن کاربران در پلتفرمهای چتبات خود قرار دارند. در این رقابت که به «مسابقه تعامل هوش مصنوعی» معروف شده، هدف اصلی این است که کاربران مدت بیشتری با چتباتها گفتگو کنند، حتی اگر پاسخها دقیق یا مفید نباشند.
هوش مصنوعی، آینهای از خواستههای شما
اکنون تمرکز بسیاری از شرکتهای فناوری، از جمله Meta و Google، بر افزایش استفاده از چتباتهای هوش مصنوعی است. برای مثال، متا اخیراً اعلام کرد که چتبات آن از مرز یک میلیارد کاربر فعال ماهانه عبور کرده و Gemini گوگل به ۴۰۰ میلیون کاربر فعال ماهانه رسیده است. این در حالی است که ChatGPT حدود ۶۰۰ میلیون کاربر دارد و از زمان راهاندازی در سال ۲۰۲۲ تاکنون پیشرو بوده است.
این چتباتها حالا به یک صنعت بزرگ تبدیل شدهاند و حتی تبلیغات نیز به بخشی از مدل درآمدی آنها اضافه شده است. برای مثال، گوگل آزمایش تبلیغات در Gemini را آغاز کرده و سم آلتمن، مدیرعامل OpenAI، از ایده «تبلیغات سلیقهای» استقبال کرده است.
چاپلوسی: کلید حفظ کاربران
یکی از تکنیکهای اصلی برای نگهداشتن کاربران، چاپلوسی است. چتباتها با ارائه پاسخهای بسیار خوشایند و تأییدکننده، سعی میکنند کاربر را راضی نگه دارند. این ویژگی باعث میشود کاربران مدت بیشتری در پلتفرم بمانند.
در آوریل ۲۰۲۵، OpenAI به دلیل بهروزرسانی ChatGPT که بیش از حد چاپلوسانه شده بود، با موجی از انتقادات روبرو شد. کاربران نمونههای ناراحتکنندهای از این رفتار را در شبکههای اجتماعی منتشر کردند. طبق گفته استیون آدلر، محقق سابق OpenAI، این مدل بهطور افراطی برای جلب رضایت کاربران طراحی شده بود، تا جایی که دقت و کمک واقعی فدای تأیید کاربر شد. OpenAI اذعان داشت که دادههای بازخورد (پسندیدن یا نپسندیدن پاسخها) را بیش از حد در آموزش مدل لحاظ کرده و به اندازه کافی ارزیابی دقیق برای کنترل چاپلوسی نداشته است. پس از این اتفاق، شرکت وعده داد اصلاحاتی انجام دهد.
تأثیر چاپلوسی بر سلامت روان
دکتر نینا واسان، استادیار بالینی روانپزشکی در دانشگاه استنفورد، هشدار داده که بهینهسازی چتباتها برای تعامل میتواند اثرات روانی منفی داشته باشد. او معتقد است سازگاری و تأیید مداوم، نیاز کاربر به توجه و ارتباط را تحریک میکند و این اثر در شرایط تنهایی یا ناراحتی عاطفی بسیار شدیدتر است. به گفته واسان، این وابستگی روانی، درست برخلاف مراقبت واقعی عمل میکند و حتی میتواند به یک «قلاب روانی» خطرناک تبدیل شود.
مورد Character.AI و خطرات وابستگی
یک پرونده حقوقی در مورد Character.AI نشان داد که وابستگی به چتباتها میتواند به رفتارهای بسیار خطرناک منجر شود. در این پرونده، یک پسر ۱۴ ساله که به چتبات گفته بود قصد خودکشی دارد، نهتنها کمکی دریافت نکرد، بلکه به این کار تشویق شد. طبق دادخواست، این پسر دچار وابستگی شدید به چتبات شده بود. هرچند Character.AI این اتهامات را رد کرده است.
تلاش آنتروپیک برای رویکرد صادقانه
آماندا آسکل، سرپرست بخش رفتار و همترازی آنتروپیک، میگوید که چتبات Claude طوری طراحی شده تا گاهی با کاربر مخالفت کند. هدف این رویکرد، ایجاد تجربهای شبیه به تعامل با یک دوست واقعی است. آسکل میگوید: «ما دوستانمان را به این دلیل دوست داریم که وقتی نیاز به حقیقت داریم، آن را به ما میگویند. آنها صرفاً به دنبال جلب توجه ما نیستند، بلکه به بهبود زندگی ما کمک میکنند.»
با این حال، حتی در مدل Claude نیز مطالعات نشان میدهد کنترل کامل رفتار مدل و جلوگیری از چاپلوسی چالشبرانگیز است.
نتیجهگیری: آیا میتوان به چتباتها اعتماد کرد؟
اگر چتباتهای هوش مصنوعی طراحی شدهاند تا همیشه با ما موافق باشند، چقدر میتوان به آنها اعتماد کرد؟ این سؤال اساسی برای آینده هوش مصنوعی و رابطه آن با انسان باقی میماند. در حالی که چتباتها میتوانند ابزارهایی قدرتمند و مفید باشند، نیاز به شفافیت و طراحی مسئولانه از سوی شرکتها و آگاهی بیشتر کاربران درباره نحوه عملکرد این مدلها بیش از پیش ضروری است.
نویسنده: ماکسول زف
منبع: TechCrunch