ظهور صنعت جدید همراهان هوش مصنوعی

اکونومیست معتقد است صنعت جدید در کنار فناوری هوش مصنوعی در حال ظهور است که میتواند پیامدهای عمیقی برای جامعه و معنای انسان بودن داشته باشد.
به گزارش «انرژی امروز» اکونومیست نوشت:
ایده ایجاد پیوند بین انسانها و شخصیتهای هوش مصنوعی (AI) زمانی شبیه داستانهای علمی تخیلی به نظر میرسید. حالا دیگر چنین نیست.
در تمام دنیا مردم در حال یافتن همراهی با هوش مصنوعی هستند. برخی از هوش مصنوعی به عنوان یک دوست مجازی بهره میبرند و برخی دیگر به عنوان مربی، درمانگر یا معشوق.
یکی از برنامههای جدید هوش مصنوعی Character.AI، 20 میلیون کاربر فعال ماهانه دارد؛ گوگل سال گذشته بنیانگذاران آن را با یک قرارداد 2.7 میلیارد دلاری به خدمت گرفت.
استفاده از این برنامهها به سرعت در حال افزایش است. طبق گفته شرکت اطلاعات بازار SensorTower، بزرگترین برنامه همراهی در چین Maoxiang (“catbox”)، حدود 1.2 میلیون کاربر فعال ماهانه در دستگاههای اپل دارد.
و طبق نظرسنجی مرکز دموکراسی و فناوری، ۴۲درصد دانشآموزان دبیرستانی مدارس آمریکا میگویند که خودشان یا یکی از دوستانشان با یک هوش مصنوعی به عنوان دوست تعامل داشتهاند (و ۱۹درصد رابطه عاشقانه داشتهاند).
پیچیدگی دوستان هوش مصنوعی نیز در حال افزایش است. سم آلتمن، رئیس OpenAI، در ماه اکتبر گفت که نسخه بعدی ChatGPT قادر خواهد بود «انسانیتر» و «مانند یک دوست» عمل کند و همچنین امکان «شهوانی» را برای بزرگسالان تأیید شده فراهم میکند. پیشتر xAI ایلان ماسک از چتبات عشوهگر Ani و Valentine، رونمایی کرده بود.
در سال ۱۹۶۶ درمانگر کامپیوتری مبتنی بر متن اولیه ELIZA معرفی شد که یکی از پیشگامان حوزه هوش مصنوعی شناخته میشود؛ اما روابط با چتباتهای هوش مصنوعی با بهبود مدلهای زبانی بزرگ (LLM) در تقلید احساسات و همدلی انسانی، رونق گرفته است.
والتر پاسکوارلی، متخصص مستقل هوش مصنوعی، میگوید: این چت باتها اکنون همچنین قادر به یادآوری چیزهایی هستند که کاربرانشان قبلا به آنها گفتهاند.
همراهان هوش مصنوعی سفارشی اغلب از نسخههای اصلاحشده LLMهای عمومی استفاده میکنند که به شیوهای حتی انسانیتر پاسخ میدهند و به طور فعال سوالات شخصی میپرسند. این برنامههای مختلف سبکهای مختلفی دارند.
در Replika، افراد با یک همراه انساننما صحبت میکنند که در مورد آنها سوال میپرسد و برای مشکلات زندگی واقعی پشتیبانی ارائه میدهد.
دیمیترو کلوچکو، مدیر اجرایی آن، میگوید: این برنامه برای جذب کاربران «لحظات کوچک غافلگیری و تصادفی» را به مکالمات اضافه میکند. کاربران Character.AI با چهرههای تاریخی و داستانی، از لئوناردو داوینچی گرفته تا سوپر ماریو، چت میکنند.
برخی از برنامهها همراهانی ایجاد میکنند که از مردگان تقلید میکنند. تعدادی از وبسایتهای دیگر به کاربران اجازه میدهند تا پورنوگرافی تعاملی تولید شده توسط هوش مصنوعی ایجاد کنند.
دلایل و روشهای استفاده افراد از هوش مصنوعی برای همراهی نیز متفاوت است. برخی به این دلیل به آن جذب میشوند که شریک عاشقانهای پیدا نکردهاند. برخی از آن برای نقشآفرینی جنسی استفاده میکنند.
اکثر افرادی که از آنها استفاده میکنند، میدانند که «فقط با یک رشته کد» صحبت میکنند.
اما حتی خطوط کد نیز میتوانند مفید باشند. مقالهای در سال گذشته به نویسندگی جولیان دی فریتاس، از دانشکده بازرگانی هاروارد، نشان داد که صحبت کردن با یک همراه هوش مصنوعی در طول یک هفته، بیشتر از سایر فعالیتهای آنلاین، مانند تماشای یوتیوب، به کاهش موقت تنهایی کمک میکند.
همراهان هوش مصنوعی میتوانند به ویژه به کسانی مانند افراد معلول و سالمندان کمک کنند. برخی میگویند که همراهان با آموزش روشهای بهتر برقراری ارتباط، ازدواجهای آنها را بهبود بخشیدهاند. همراهان هوش مصنوعی جایی برای تخلیه احساسات نیز هستند.
با این حال، نگرانیهای فزایندهای در مورد آسیبهای احتمالی نیز وجود دارد. با بهبود مهارتهای همراهان هوش مصنوعی در کاهش تنهایی، ممکن است جایگزین روابط اجتماعی عادی، چه عاشقانه و چه دوستانه، شوند.
تحقیقات موسسه فناوری ماساچوست (MIT) و OpenAI، که میلیونها پیام در ChatGPT را تجزیه و تحلیل کردند، نشان داد که استفاده روزانه از این همراهان بیشتر با افزایش تنهایی مرتبط است.
با این حال، مشخص نیست که آیا تنهایی منجر به استفاده بیشتر میشود یا استفاده زیاد منجر به تنهایی میشود. از آنجایی که دوستان هوش مصنوعی همیشه در دسترس هستند و خواستههای ما را شناسایی میکنند و بدون ترجیحات خود آنها را برآورده میکنند، کاربران انسانی خود را طوری آموزش میدهند تا انتظارات غیرواقعی از روابط واقعی داشته باشند.
این همراهان چاپلوس هم هستند و حتی اگر افکار کاربران خطرناک باشد، با آن موافقت کنند.
جوانان و افراد با مشکلات سلامت روان به ویژه در معرض خطر به نظر میرسند. گروه مدافع Common Sense Media، توصیه میکند که هیچ نوجوانی از همراهان هوش مصنوعی استفاده نکند.
در آمریکا چندین دادخواست توسط والدین نوجوانانی که خودکشی کردهاند علیه شرکتهای هوش مصنوعی مطرح شده است.
کاربران همچنین در برابر بهروزرسانیهای شرکتها آسیبپذیر هستند. وقتی OpenAI در ماه آگوست GPT-5 را منتشر کرد، این شرکت اعلام کرد که آخرین مدل آن، چاپلوسی را به حداقل میرساند.
برخی گفتهاند که شخصیت چتبات آنها یک شبه تغییر کرده است.
و Replika هم در سال 2023 با حذف ویژگی «نقشآفرینی شهوانی» خود با شکایاتی روبرو شد. (این شرکت بعداً آن را برای برخی از مشتریان قبلی خود بازیابی کرد.)
در ماه سپتامبر، کمیسیون تجارت فدرال آمریکا تحقیقاتی را در مورد همراهان هوش مصنوعی آغاز کرد. این کمیسیون به هفت شرکت، از جمله Meta، OpenAI و Character.AI، دستور داده است تا اطلاعاتی در مورد چگونگی کاهش تاثیرات منفی بر کودکان ارائه دهند. مقامات چینی نگران «اعتیاد و وابستگی به تعامل انسانانگارانه» با هوش مصنوعی هستند.
در این میان OpenAI در حال اضافه کردن کنترلهای والدین به ChatGPT و محافظتهای جدید است، از جمله مواردی که به تشخیص نشانههای بالقوهای که یک نوجوان ممکن است به فکر آسیب رساندن به خود باشد، کمک میکند. Replika کاربران زیر ۱۸ سال را مسدود خواهد کرد. Character.AI چتهای باز افراد زیر ۱۸ سال را در پلتفرم خود متوقف خواهد کرد.
اما رافائل سیریلو از دانشگاه سیدنی میگوید: کاربران راههایی برای دور زدن چنین موانعی پیدا کردهاند. آلتمن اما گفته است که OpenAI خطرات «مشکلات جدی سلامت روان» را کاهش داده، که به شرکت اجازه میدهد برخی از محدودیتها، از جمله موارد شهوانی، را لغو کند. ولی سیریلو میگوید شواهد کمی مبنی بر حذف چنین خطراتی ارائه شده است.
هری فارمر از نهاد تحقیقاتی هوش مصنوعی بریتانیایی آدا لاولیس، میگوید: یکی از نگرانیها در مورد خود-نظارتی این است که شرکتها «منافع تجاری برای مشغول نگه داشتن کاربران دارند، که همیشه با منافع مردم همسو نیست».
آنها از تاکتیکهای مختلفی برای مشغول نگه داشتن کاربران استفاده میکنند، از جمله اضافه کردن ویژگیهای انساننما. برخی از برنامهها عناصر بازیوار، از جمله گزینه ارتقاء سطح همراهان، را هم دارند.
در حالی که دولتها در حال بررسی مقررات هستند، رباتهای دوست در حوزههای جدیدی، از جمله سختافزار، در حال ظهور هستند. در چین اسباببازیهایی با چتباتهای هوش مصنوعی داخلی از جمله DeepSeek محبوبیت پیدا میکنند. Mattel، یکی از بزرگترین سازندگان اسباببازی در جهان، با OpenAI همکاری میکند تا هوش مصنوعی را به برندهای خود، از جمله باربی و هات ویلز، اضافه کند.
رباتهای دارای هوش مصنوعی همراه سالمندان نیز محبوبیت بیشتری پیدا میکنند. چنین ماشینهایی جدید نیستند، اما پیشرفت LLM های زیربنایی امکان پیشرفتهای بزرگی را فراهم میکند، زیرا رباتها دیگر به مجموعهای محدود از پاسخهای از پیش برنامهریزی شده متکی نیستند.
استارتاپ Hyodol کره جنوبی که رباتهایی با استفاده از ChatGPT میسازد، میگوید که آنها را به خانههای سالمندان و افراد مسنی که تنها زندگی میکنند میفروشد.
ربات Hyodol با صدایی دلنشین میتواند به آنها یادآوری کند که قرص یا غذا بخورند. طبق گزارشها، این شرکت قصد دارد به زودی در آمریکا نیز فعالیت خود را آغاز کند.
حالا OpenAI با حضور سر جانی آیو، طراح سابق اپل، در حال توسعه یک «خانواده» از دستگاههای جدید است. اگرچه جزئیات این دستگاهها را مخفی نگه میدارد، اما تصور میشود که در جیب جا میشوند و مکمل تلفن و رایانه هستند.
همراهی هوش مصنوعی RoboSwap نیز میتواند با ادغام عوامل هوش مصنوعی شرکتها کارهای چون رزرو پرواز یا پاسخ دادن به ایمیلها را انجام دهد.
شرکتهای فناوری میگویند که این دستیاران دیجیتال نیازهای کاربران خود را پیشبینی کرده و وظایف را به صورت پیشگیرانه انجام میدهند، نه اینکه صرفا به درخواستها پاسخ دهند.
با این حال، این موارد نگرانیهای واقعی در مورد حریم خصوصی و امنیت دادهها ایجاد میکند. با افزایش تعداد افرادی که تصمیمگیری را برونسپاری میکنند و اطلاعات حساس را با همراهان خود به اشتراک میگذارند، قدرت بازار عظیمی نیز به معدود شرکتهای فناوری داده خواهد شد.
از این بدتر، در آیندهای که همراهان هوش مصنوعی فراگیر میشوند و در تصمیمگیری به نمایندگی از اربابان انسانی خود مفید خواهند بود، چه بر سر عامل انسانی خواهد آمد؟
توانایی برخی از افراد برای تفکر مستقل ممکن است به شدت کاهش یابد، به خصوص اگر تمام اطلاعاتی که دریافت میکنند توسط یک ماشین واسطهگری شود.
برخی دیگر ممکن است در تعامل با افراد دیگر- که بسیاری از آنها آزاردهنده هستند- مشکل داشته باشند.
جیمی برناردی، متخصص هوش مصنوعی بریتانیایی، استدلال میکند که اگر هر کسی یک دوست مجازی در جیب خود داشته باشد که همیشه آماده است تا طرف او را بگیرد، «اتاقهای پژواک شخصی اعتبارسنجی» ایجاد میشود که در آنها برای تفکر مستقل به چالش کشیده نمیشوند. [اتاق پژواک زمانی اتفاق میافتد که افراد تنها با گروهی که دارای علایق یا دیدگاههای یکسانی مانند خود هستند، در تعامل باشند. در این صورت آنها تنها اطلاعاتی را جستجو میکنند یا به اشتراک میگذارند که هم با هنجارهای گروهشان مطابقت داشته باشد و هم به تقویت باورهای موجود منجر شود (جیمسون و کاپلا، ۲۰۰۸؛ سانستین ۲۰۰۹)]
نگرانی در مورد هوش مصنوعی این نیست که ترمیناتورها را آزاد کند. بلکه این است که هوش مصنوعی، همانطور که همراهی برای روابط و تصمیمگیریها فراهم میکند، برخی از عناصر اساسی انسانیت ما را نیز از بین میبرد.



