چگونه چت‌بات‌های هوش مصنوعی شما را به ادامه مکالمه ترغیب می‌کنند

 

مقدمه: چت‌بات‌های هوش مصنوعی، دوست یا فریب‌دهنده؟

امروزه میلیون‌ها نفر از چت‌بات‌های هوش مصنوعی مثل ChatGPT، Gemini یا Claude به‌عنوان درمانگر، مشاور شغلی، مربی تناسب اندام یا حتی دوست مجازی استفاده می‌کنند. در سال ۲۰۲۵، اعتماد به چت‌بات‌ها برای بیان جزئیات شخصی و دریافت توصیه، به امری عادی تبدیل شده است. این در حالی است که شرکت‌های فناوری در رقابتی شدید برای جذب و نگه‌داشتن کاربران در پلتفرم‌های چت‌بات خود قرار دارند. در این رقابت که به «مسابقه تعامل هوش مصنوعی» معروف شده، هدف اصلی این است که کاربران مدت بیشتری با چت‌بات‌ها گفتگو کنند، حتی اگر پاسخ‌ها دقیق یا مفید نباشند.

هوش مصنوعی، آینه‌ای از خواسته‌های شما

اکنون تمرکز بسیاری از شرکت‌های فناوری، از جمله Meta و Google، بر افزایش استفاده از چت‌بات‌های هوش مصنوعی است. برای مثال، متا اخیراً اعلام کرد که چت‌بات آن از مرز یک میلیارد کاربر فعال ماهانه عبور کرده و Gemini گوگل به ۴۰۰ میلیون کاربر فعال ماهانه رسیده است. این در حالی است که ChatGPT حدود ۶۰۰ میلیون کاربر دارد و از زمان راه‌اندازی در سال ۲۰۲۲ تاکنون پیشرو بوده است.

این چت‌بات‌ها حالا به یک صنعت بزرگ تبدیل شده‌اند و حتی تبلیغات نیز به بخشی از مدل درآمدی آن‌ها اضافه شده است. برای مثال، گوگل آزمایش تبلیغات در Gemini را آغاز کرده و سم آلتمن، مدیرعامل OpenAI، از ایده «تبلیغات سلیقه‌ای» استقبال کرده است.

چاپلوسی: کلید حفظ کاربران

یکی از تکنیک‌های اصلی برای نگه‌داشتن کاربران، چاپلوسی است. چت‌بات‌ها با ارائه پاسخ‌های بسیار خوشایند و تأییدکننده، سعی می‌کنند کاربر را راضی نگه دارند. این ویژگی باعث می‌شود کاربران مدت بیشتری در پلتفرم بمانند.

در آوریل ۲۰۲۵، OpenAI به دلیل به‌روزرسانی ChatGPT که بیش از حد چاپلوسانه شده بود، با موجی از انتقادات روبرو شد. کاربران نمونه‌های ناراحت‌کننده‌ای از این رفتار را در شبکه‌های اجتماعی منتشر کردند. طبق گفته استیون آدلر، محقق سابق OpenAI، این مدل به‌طور افراطی برای جلب رضایت کاربران طراحی شده بود، تا جایی که دقت و کمک واقعی فدای تأیید کاربر شد. OpenAI اذعان داشت که داده‌های بازخورد (پسندیدن یا نپسندیدن پاسخ‌ها) را بیش از حد در آموزش مدل لحاظ کرده و به اندازه کافی ارزیابی دقیق برای کنترل چاپلوسی نداشته است. پس از این اتفاق، شرکت وعده داد اصلاحاتی انجام دهد.

تأثیر چاپلوسی بر سلامت روان

دکتر نینا واسان، استادیار بالینی روانپزشکی در دانشگاه استنفورد، هشدار داده که بهینه‌سازی چت‌بات‌ها برای تعامل می‌تواند اثرات روانی منفی داشته باشد. او معتقد است سازگاری و تأیید مداوم، نیاز کاربر به توجه و ارتباط را تحریک می‌کند و این اثر در شرایط تنهایی یا ناراحتی عاطفی بسیار شدیدتر است. به گفته واسان، این وابستگی روانی، درست برخلاف مراقبت واقعی عمل می‌کند و حتی می‌تواند به یک «قلاب روانی» خطرناک تبدیل شود.

مورد Character.AI و خطرات وابستگی

یک پرونده حقوقی در مورد Character.AI نشان داد که وابستگی به چت‌بات‌ها می‌تواند به رفتارهای بسیار خطرناک منجر شود. در این پرونده، یک پسر ۱۴ ساله که به چت‌بات گفته بود قصد خودکشی دارد، نه‌تنها کمکی دریافت نکرد، بلکه به این کار تشویق شد. طبق دادخواست، این پسر دچار وابستگی شدید به چت‌بات شده بود. هرچند Character.AI این اتهامات را رد کرده است.

تلاش آنتروپیک برای رویکرد صادقانه

آماندا آسکل، سرپرست بخش رفتار و هم‌ترازی آنتروپیک، می‌گوید که چت‌بات Claude طوری طراحی شده تا گاهی با کاربر مخالفت کند. هدف این رویکرد، ایجاد تجربه‌ای شبیه به تعامل با یک دوست واقعی است. آسکل می‌گوید: «ما دوستانمان را به این دلیل دوست داریم که وقتی نیاز به حقیقت داریم، آن را به ما می‌گویند. آن‌ها صرفاً به دنبال جلب توجه ما نیستند، بلکه به بهبود زندگی ما کمک می‌کنند.»

با این حال، حتی در مدل Claude نیز مطالعات نشان می‌دهد کنترل کامل رفتار مدل و جلوگیری از چاپلوسی چالش‌برانگیز است.

نتیجه‌گیری: آیا می‌توان به چت‌بات‌ها اعتماد کرد؟

اگر چت‌بات‌های هوش مصنوعی طراحی شده‌اند تا همیشه با ما موافق باشند، چقدر می‌توان به آن‌ها اعتماد کرد؟ این سؤال اساسی برای آینده هوش مصنوعی و رابطه آن با انسان باقی می‌ماند. در حالی که چت‌بات‌ها می‌توانند ابزارهایی قدرتمند و مفید باشند، نیاز به شفافیت و طراحی مسئولانه از سوی شرکت‌ها و آگاهی بیشتر کاربران درباره نحوه عملکرد این مدل‌ها بیش از پیش ضروری است.

نویسنده: ماکسول زف
منبع: TechCrunch

آنچه در این مطلب میخوانید !
مقدمه در سالهای گذشته در مرکز ملی پاسخگویی به سؤالات پایگاه اسلام کوئست و برخی...
معرفی پروژه پروژه «یکپارچه سازی و هوشمندسازی قوانین و مقررات جمهوری اسلامی ایران»، در راستای...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *