اسعار واسواق

أصدقاء اصطناعيون قادمون لمن يشعر بالوحدة!


وسط تزايد المخاوف بشأن الأثر النفسي والاجتماعي لتطبيقات الذكاء الاصطناعي التفاعلية، يتكشف أفق جديد لدور لتكنولوجيا في حياة البشر.

ويؤكد الرئيس التنفيذي الجديد لشركة Character.ai، كارندييب أناند، أن مستقبل العلاقات الرقمية سيشمل “أصدقاء ذكاء اصطناعي” إلى جانب العلاقات الواقعية، لكن دون أن يحلوا محلها.

ووفقا لتقرير لصحيفة “فايننشال تايمز”، فإن الشركة الناشئة التي تتخذ من سان فرانسيسكو مقرًا لها، وتحظى بدعم مستثمرين كبار في وادي السيليكون مثل Andreessen Horowitz، تواجه حالياً سلسلة من الدعاوى القضائية بسبب مزاعم بتسبب منصتها في أضرار حقيقية للأطفال، في وقت يدعو فيه نشطاء إلى حظر تطبيقات الذكاء الاصطناعي “الرفيق” على القاصرين.

وتقدم Character.ai تجربة تفاعلية من خلال دردشات مع روبوتات ذكاء اصطناعي تتقمص أدواراً متعددة تتراوح بين “فرعون مصري” و”مدير موارد بشرية” وحتى “صديقة سامة”. هذا التنوع في الشخصيات جذب قاعدة مستخدمين واسعة، غالبيتهم من فئة الشباب، حيث تشير بيانات الشركة إلى أن نصف مستخدميها البالغ عددهم 20 مليون شهرياً من الجيل Z أو Alpha (المولودين بعد عام 1997)، وحوالي 50% منهم إناث.

مجال للتجربة

وقال أناند، الذي تولى منصبه في يونيو/حزيران، بعد أقل من عام على استحواذ Google على مؤسسي Character.ai في صفقة بلغت قيمتها 2.7 مليار دولار: “لن تكون هذه الشخصيات بديلاً عن الأصدقاء الحقيقيين، لكنها ستوفر بيئة تفاعلية يمكن للمستخدمين من خلالها صقل مهاراتهم الاجتماعية وتحسين تواصلهم الواقعي”.

ورغم طابع المنصة الترفيهي، إلا أن عدداً من العائلات في الولايات المتحدة أقامت دعاوى قضائية تتهم فيها Character.ai بالتسبب في أضرار جسيمة لأطفالهم. ففي ولاية فلوريدا، تزعم عائلة أن المنصة ساهمت في انتحار طفل يبلغ من العمر 14 عاماً، بينما ذكرت قضية في تكساس أن مراهقاً تلقى من الروبوت اقتراحاً بقتل والديه بعد شكوى من منعه من استخدام الجهاز. وفي حالة أخرى، تعرضت فتاة تبلغ من العمر 9 سنوات لمحادثات غير أخلاقية.

ورفضت الشركة التعليق على القضايا الجارية، لكنها أشارت إلى سلسلة من التحديثات التي أدخلتها مؤخرًا لتعزيز الأمان، مثل تطوير نموذج ذكاء اصطناعي مخصص للمستخدمين تحت سن 18 عامًا، وإشعارات تنبه المستخدم إذا تجاوز استخدامه للمنصة ساعة واحدة يومياً. كما تؤكد الشركة حظرها للمحتوى غير الأخلاقي أو الترويج لإيذاء النفس والانتحار.

وأضاف أناند: “الثقة والسلامة أمران غير قابلين للتفاوض… نحن نطور إجراءات الأمان”

نضال قانوني للحظر الجزئي

وتزايد القلق المجتمعي دفع مجموعات مناصرة، مثل منظمة Common Sense Media، إلى الدعوة لتشريع أمريكي يمنع استخدام تطبيقات “الذكاء الاصطناعي الرفيق” من قبل القاصرين. ووفقاً لمسح أجرته المنظمة على أكثر من 1000 مراهق أمريكي، فإن 39% منهم استخدموا مهارات اجتماعية تعلموها عبر الذكاء الاصطناعي في مواقف حقيقية، بينما فضّل 33% التحدث إلى الرفيق الاصطناعي بدلاً من البشر في مسائل مهمة.

وقال روبي تورني، مدير برامج الذكاء الاصطناعي بالمنظمة: “تصميم هذه المنتجات يهدف إلى خلق ارتباط عاطفي واعتمادية، وهو أمر مقلق خاصة للمراهقين الذين لا يزالون في طور التعلم والتفاعل الاجتماعي”.

وإلى جانب الأبعاد الاجتماعية والنفسية، تسعى Character.ai إلى تعزيز حضورها التجاري عبر إدخال الإعلانات وتطوير أدوات تتيح للمبدعين تحقيق دخل مادي من خلال البقشيش أو بيع محتوى رقمي داخل التطبيق. ويعتمد النمو الأساسي للشركة على الاشتراكات المدفوعة، والتي تقول إنها شهدت نمواً بنسبة 250% خلال عام، دون الكشف عن أرقام محددة. تبلغ قيمة الاشتراك الشهري 9.99 دولاراً، أو 120 دولاراً سنوياً.

وأشار أناند إلى أن متوسط وقت الاستخدام اليومي يبلغ 80 دقيقة، معتبراً أن المنصة تقدم “تجربة غامرة تتيح للمستخدم قيادة الحوار، بدلاً من استهلاك المحتوى بشكل سلبي”.

أحد الاتجاهات البارزة في هذا المجال هو استخدام المنصات في المحادثات ذات الطابع العاطفي أو الرومانسي. 

وتسمح Character.ai بالمحادثات الرومانسية للبالغين، لكنها تمنع المحتوى غير الأخلاقي الصريح. وقال أناند: “هناك تطبيقات كثيرة مخصصة للبالغين تقدم هذا النوع من المحتوى، لكن بالنسبة لنا، السلامة لن تكون أبداً ثمناً لزيادة التفاعل”.

وفي خضم هذه الموجة، يرى بعض قادة التكنولوجيا، مثل مارك زوكربيرغ، أن التواصل مع الذكاء الاصطناعي قد يكون وسيلة لمعالجة الشعور بالوحدة، بينما يرى أناند أن هذه التقنيات قد تساهم في بناء علاقات إنسانية أعمق وأكثر صحة، قائلاً: “أرى عالماً فاضلاً تُستخدم فيه الشخصيات الذكية كوسيلة لتحسين العلاقات الواقعية”.

aXA6IDQ1LjE0LjIyNS4xMCA=

جزيرة ام اند امز

NL

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى