ظهور صنعت جدید همراهان هوش مصنوعی

اکونومیست معتقد است صنعت جدید در کنار فناوری هوش مصنوعی در حال ظهور است که می‌تواند پیامدهای عمیقی برای جامعه و معنای انسان بودن داشته باشد.

 

به گزارش «انرژی امروز» اکونومیست نوشت:

 

ایده ایجاد پیوند بین انسان‌ها و شخصیت‌های هوش مصنوعی (AI) زمانی شبیه داستان‌های علمی تخیلی به نظر می‌رسید. حالا دیگر چنین نیست.

 

در تمام دنیا مردم در حال یافتن همراهی با هوش مصنوعی هستند. برخی از هوش مصنوعی به عنوان یک دوست مجازی بهره می‌برند و برخی دیگر به عنوان مربی، درمانگر یا معشوق.

 

یکی از برنامه‌های جدید هوش مصنوعی Character.AI، 20 میلیون کاربر فعال ماهانه دارد؛ گوگل سال گذشته بنیانگذاران آن را با یک قرارداد 2.7 میلیارد دلاری به خدمت گرفت.

 

استفاده از این برنامه‌ها به سرعت در حال افزایش است. طبق گفته شرکت اطلاعات بازار SensorTower، بزرگترین برنامه همراهی در چین Maoxiang (“catbox”)، حدود 1.2 میلیون کاربر فعال ماهانه در دستگاه‌های اپل دارد.

 

و طبق نظرسنجی مرکز دموکراسی و فناوری، ۴۲درصد دانش‌آموزان دبیرستانی مدارس آمریکا می‌گویند که خودشان یا یکی از دوستانشان با یک هوش مصنوعی به عنوان دوست تعامل داشته‌اند (و ۱۹درصد رابطه عاشقانه داشته‌اند).

 

پیچیدگی دوستان هوش مصنوعی نیز در حال افزایش است. سم آلتمن، رئیس OpenAI، در ماه اکتبر گفت که نسخه بعدی ChatGPT قادر خواهد بود «انسانی‌تر» و «مانند یک دوست» عمل کند و همچنین امکان «شهوانی» را برای بزرگسالان تأیید شده فراهم می‌کند. پیشتر  xAI ایلان ماسک از  چت‌بات عشوه‌گر Ani و Valentine، رونمایی کرده بود.

 

در سال ۱۹۶۶ درمانگر کامپیوتری مبتنی بر متن اولیه ELIZA معرفی شد که یکی از پیشگامان حوزه هوش مصنوعی شناخته می‌شود؛ اما روابط با چت‌بات‌های هوش مصنوعی با بهبود مدل‌های زبانی بزرگ (LLM) در تقلید احساسات و همدلی انسانی، رونق گرفته است.

 

والتر پاسکوارلی، متخصص مستقل هوش مصنوعی، می‌گوید: این چت بات‌ها اکنون همچنین قادر به یادآوری چیزهایی هستند که کاربرانشان قبلا به آنها گفته‌اند.

همراهان هوش مصنوعی سفارشی اغلب از نسخه‌های اصلاح‌شده LLMهای عمومی استفاده می‌کنند که به شیوه‌ای حتی انسانی‌تر پاسخ می‌دهند و به طور فعال سوالات شخصی می‌پرسند. این برنامه‌های مختلف سبک‌های مختلفی دارند.

 

در Replika، افراد با یک همراه انسان‌نما صحبت می‌کنند که در مورد آنها سوال می‌پرسد و برای مشکلات زندگی واقعی پشتیبانی ارائه می‌دهد.

 

دیمیترو کلوچکو، مدیر اجرایی آن، می‌گوید: این برنامه برای جذب کاربران «لحظات کوچک غافلگیری و تصادفی» را به مکالمات اضافه می‌کند. کاربران Character.AI با چهره‌های تاریخی و داستانی، از لئوناردو داوینچی گرفته تا سوپر ماریو، چت می‌کنند.

 

برخی از برنامه‌ها همراهانی ایجاد می‌کنند که از مردگان تقلید می‌کنند. تعدادی از وب‌سایت‌های دیگر به کاربران اجازه می‌دهند تا پورنوگرافی تعاملی تولید شده توسط هوش مصنوعی ایجاد کنند.

 

دلایل و روش‌های استفاده افراد از هوش مصنوعی برای همراهی نیز متفاوت است. برخی به این دلیل به آن جذب می‌شوند که شریک عاشقانه‌ای پیدا نکرده‌اند. برخی از آن برای نقش‌آفرینی جنسی استفاده می‌کنند.

 

اکثر افرادی که از آنها استفاده می‌کنند، می‌دانند که «فقط با یک رشته کد» صحبت می‌کنند.

 

اما حتی خطوط کد نیز می‌توانند مفید باشند. مقاله‌ای در سال گذشته به نویسندگی جولیان دی فریتاس، از دانشکده بازرگانی هاروارد، نشان داد که صحبت کردن با یک همراه هوش مصنوعی در طول یک هفته، بیشتر از سایر فعالیت‌های آنلاین، مانند تماشای یوتیوب، به کاهش موقت تنهایی کمک می‌کند.

 

همراهان هوش مصنوعی می‌توانند به ویژه به کسانی مانند افراد معلول و سالمندان کمک کنند. برخی می‌گویند که همراهان با آموزش روش‌های بهتر برقراری ارتباط، ازدواج‌های آنها را بهبود بخشیده‌اند. همراهان هوش مصنوعی جایی برای تخلیه احساسات نیز هستند.

 

با این حال، نگرانی‌های فزاینده‌ای در مورد آسیب‌های احتمالی نیز وجود دارد. با بهبود مهارت‌های همراهان هوش مصنوعی در کاهش تنهایی، ممکن است جایگزین روابط اجتماعی عادی، چه عاشقانه و چه دوستانه، شوند.

 

تحقیقات موسسه فناوری ماساچوست (MIT) و OpenAI، که میلیون‌ها پیام در ChatGPT را تجزیه و تحلیل کردند، نشان داد که استفاده روزانه از این همراهان بیشتر با افزایش تنهایی مرتبط است.

 

با این حال، مشخص نیست که آیا تنهایی منجر به استفاده بیشتر می‌شود یا استفاده زیاد منجر به تنهایی می‌شود. از آنجایی که دوستان هوش مصنوعی همیشه در دسترس هستند و خواسته‌های ما را شناسایی می‌کنند و بدون ترجیحات خود آنها را برآورده می‌کنند، کاربران انسانی خود را طوری آموزش می‌دهند تا انتظارات غیرواقعی از روابط واقعی داشته باشند.

 

این همراهان چاپلوس هم هستند و حتی اگر افکار کاربران خطرناک باشد، با آن موافقت کنند.

 

جوانان و افراد با مشکلات سلامت روان به ویژه در معرض خطر به نظر می‌رسند. گروه مدافع Common Sense Media، توصیه می‌کند که هیچ نوجوانی از همراهان هوش مصنوعی استفاده نکند.

 

در آمریکا چندین دادخواست توسط والدین نوجوانانی که خودکشی کرده‌اند علیه شرکت‌های هوش مصنوعی مطرح شده است.

 

کاربران همچنین در برابر به‌روزرسانی‌های شرکت‌ها آسیب‌پذیر هستند. وقتی OpenAI در ماه آگوست GPT-5 را منتشر کرد، این شرکت اعلام کرد که آخرین مدل آن، چاپلوسی را به حداقل می‌رساند.

 

برخی گفته‌اند که شخصیت چت‌بات آنها یک شبه تغییر کرده است.

 

و Replika هم در سال 2023 با حذف ویژگی «نقش‌آفرینی شهوانی» خود با شکایاتی روبرو شد. (این شرکت بعداً آن را برای برخی از مشتریان قبلی خود بازیابی کرد.)

 

در ماه سپتامبر، کمیسیون تجارت فدرال آمریکا تحقیقاتی را در مورد همراهان هوش مصنوعی آغاز کرد. این کمیسیون به هفت شرکت، از جمله Meta، OpenAI و Character.AI، دستور داده است تا اطلاعاتی در مورد چگونگی کاهش تاثیرات منفی بر کودکان ارائه دهند. مقامات چینی نگران «اعتیاد و وابستگی به تعامل انسان‌انگارانه» با هوش مصنوعی هستند.

 

در این میان OpenAI در حال اضافه کردن کنترل‌های والدین به ChatGPT و محافظت‌های جدید است، از جمله مواردی که به تشخیص نشانه‌های بالقوه‌ای که یک نوجوان ممکن است به فکر آسیب رساندن به خود باشد، کمک می‌کند. Replika کاربران زیر ۱۸ سال را مسدود خواهد کرد. Character.AI چت‌های باز افراد زیر ۱۸ سال را در پلتفرم خود متوقف خواهد کرد.

 

اما رافائل سیریلو از دانشگاه سیدنی می‌گوید: کاربران راه‌هایی برای دور زدن چنین موانعی پیدا کرده‌اند. آلتمن اما گفته است که OpenAI خطرات «مشکلات جدی سلامت روان» را کاهش داده، که به شرکت اجازه می‌دهد برخی از محدودیت‌ها، از جمله موارد شهوانی، را لغو کند. ولی سیریلو می‌گوید شواهد کمی مبنی بر حذف چنین خطراتی ارائه شده است.

 

هری فارمر از نهاد تحقیقاتی هوش مصنوعی بریتانیایی آدا لاولیس، می‌گوید: یکی از نگرانی‌ها در مورد خود-نظارتی این است که شرکت‌ها «منافع تجاری برای مشغول نگه داشتن کاربران دارند، که همیشه با منافع مردم همسو نیست».

 

آنها از تاکتیک‌های مختلفی برای مشغول نگه داشتن کاربران استفاده می‌کنند، از جمله اضافه کردن ویژگی‌های انسان‌نما. برخی از برنامه‌ها عناصر بازی‌وار، از جمله گزینه ارتقاء سطح همراهان، را هم دارند.

 

در حالی که دولت‌ها در حال بررسی مقررات هستند، ربات‌های دوست در حوزه‌های جدیدی، از جمله سخت‌افزار، در حال ظهور هستند. در چین اسباب‌بازی‌هایی با چت‌بات‌های هوش مصنوعی داخلی از جمله DeepSeek محبوبیت پیدا می‌کنند. Mattel، یکی از بزرگترین سازندگان اسباب‌بازی در جهان، با OpenAI همکاری می‌کند تا هوش مصنوعی را به برندهای خود، از جمله باربی و هات ویلز، اضافه کند.

 

ربات‌های دارای هوش مصنوعی همراه سالمندان نیز محبوبیت بیشتری پیدا می‌کنند. چنین ماشین‌هایی جدید نیستند، اما پیشرفت LLM های زیربنایی امکان پیشرفت‌های بزرگی را فراهم می‌کند، زیرا ربات‌ها دیگر به مجموعه‌ای محدود از پاسخ‌های از پیش برنامه‌ریزی شده متکی نیستند.

 

استارتاپ  Hyodol کره جنوبی که ربات‌هایی با استفاده از ChatGPT می‌سازد، می‌گوید که آنها را به خانه‌های سالمندان و افراد مسنی که تنها زندگی می‌کنند می‌فروشد.

 

ربات Hyodol با صدایی دلنشین می‌تواند به آنها یادآوری کند که قرص یا غذا بخورند. طبق گزارش‌ها، این شرکت قصد دارد به زودی در آمریکا نیز فعالیت خود را آغاز کند.

 

حالا OpenAI با حضور سر جانی آیو، طراح سابق اپل، در حال توسعه یک «خانواده» از دستگاه‌های جدید است. اگرچه جزئیات این دستگاه‌ها را مخفی نگه می‌دارد، اما تصور می‌شود که در جیب جا می‌شوند و مکمل تلفن و رایانه هستند.

 

همراهی هوش مصنوعی RoboSwap نیز می‌تواند با ادغام عوامل هوش مصنوعی شرکت‌ها کارهای چون رزرو پرواز یا پاسخ دادن به ایمیل‌ها را انجام دهد.

 

شرکت‌های فناوری می‌گویند که این دستیاران دیجیتال نیازهای کاربران خود را پیش‌بینی کرده و وظایف را به صورت پیشگیرانه انجام می‌دهند، نه اینکه صرفا به درخواست‌ها پاسخ دهند.

 

با این حال، این موارد نگرانی‌های واقعی در مورد حریم خصوصی و امنیت داده‌ها ایجاد می‌کند. با افزایش تعداد افرادی که تصمیم‌گیری را برون‌سپاری می‌کنند و اطلاعات حساس را با همراهان خود به اشتراک می‌گذارند، قدرت بازار عظیمی نیز به معدود شرکت‌های فناوری داده خواهد شد.

 

از این بدتر، در آینده‌ای که همراهان هوش مصنوعی فراگیر می‌شوند و در تصمیم‌گیری به نمایندگی از اربابان انسانی خود مفید خواهند بود، چه بر سر عامل انسانی خواهد آمد؟

 

توانایی برخی از افراد برای تفکر مستقل ممکن است به شدت کاهش یابد، به خصوص اگر تمام اطلاعاتی که دریافت می‌کنند توسط یک ماشین واسطه‌گری شود.

 

برخی دیگر ممکن است در تعامل با افراد دیگر- که بسیاری از آنها آزاردهنده هستند- مشکل داشته باشند.

 

جیمی برناردی، متخصص هوش مصنوعی بریتانیایی، استدلال می‌کند که اگر هر کسی یک دوست مجازی در جیب خود داشته باشد که همیشه آماده است تا طرف او را بگیرد، «اتاق‌های پژواک شخصی اعتبارسنجی» ایجاد می‌شود که در آنها برای تفکر مستقل به چالش کشیده نمی‌شوند. [اتاق پژواک زمانی اتفاق می‌افتد که افراد تنها با گروهی که دارای علایق یا دیدگاه‌های یکسانی مانند خود هستند، در تعامل باشند. در این صورت آن‌ها تنها اطلاعاتی را جستجو می‌کنند یا به اشتراک می‌گذارند که هم با هنجارهای گروهشان مطابقت داشته باشد و هم به تقویت باورهای موجود منجر شود (جیمسون و کاپلا، ۲۰۰۸؛ سانستین ۲۰۰۹)]

 

نگرانی در مورد هوش مصنوعی این نیست که ترمیناتورها را آزاد کند. بلکه این است که هوش مصنوعی، همانطور که همراهی برای روابط و تصمیم‌گیری‌ها فراهم می‌کند، برخی از عناصر اساسی انسانیت ما را نیز از بین می‌برد.

برچسب ها
مشاهده بیشتر

فاطمه لطفی

• فوق لیسانس مهندسی محیط زیست • خبرنگار تخصصی انرژی • مترجم کتابهای عطش بزرگ، تصفیه پسابهای صنعتی، تصفیه آب، استفاده مجدد از آبهای صنعتی، فرایندها و عملیات واحد در تصفیه آب و ساز و کار توسعه پاک

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن
بستن