ذكرت رويترز أنه تم حظر استخدام ريبليكا “Replika”، روبوت محادثة الذكاء الاصطناعي الأمريكي المنشأ، في إيطاليا. لقد تم منعه بواسطة وكالة حماية البيانات الإيطالية (GPDP)، التي أشارت يوم الجمعة لمخاطره على القُصر والأشخاص الضعفاء عاطفيًا.
لقد تم إطلاق ريبليكا في 2017 كشركة ناشئة في سان فرانسيسكو، والتي تقدم للعملاء شخصيات رمزية “أفاتار” مخصصة لهم يمكنها التحدث معهم والسماع لهم.
اقرأ أيضًا: “الذكاء الاصطناعي سيؤثر على وظائف عمال الياقات البيضاء أيضًا”
لقد كانت منتشرة بعض الشيء بين متحدثي الإنجليزية، ومجانية الاستخدام. ومع ذلك، لقد كانت تجني أرباح بقيمة 2 مليون دولار أمريكي شهريًا عبر بيع الميزات الإضافية مثل الدردشة الصوتية.
#IntelligenzaArtificiale Il #GarantePrivacy dispone la limitazione provvisoria del trattamento dei dati personali degli utenti italiani di #Replika, il #chatbot che genera un "amico virtuale". Troppi i rischi per minori e persone emotivamente fragili ➡️ https://t.co/jDPkYHft0O pic.twitter.com/5xB2nB1tm3
— Garante Privacy (@GPDP_IT) February 3, 2023
يتم التسويق لريبليكا على أنها “صديق افتراضي” لديه القدرة على صحة المستخدم النفسية.
زعمت الGPDP أنه أثناء إنشاء حساب، تطلب المنصة من المستخدم فقط اسمه، عنوان بريده الإلكتروني، جنسه.
قالت الgpdp: “(الأجوبة) المقدمة بواسطة روبوت المحادثة عادًة ما تتعارض بوضوح مع ضمان طرق حماية الأطفال والأشخاص الضِعاف عاطفيًا. تتضمن بعض التقييمات على متجري التطبيقات تعليقات من قبل المستخدمين تحذر من وجود محتوى جنسي غير لائق”.
ومع ذلك، فإن هيئة الرقابة الإيطالية وضحت أن تدخل روبوت المحادثة في مزاج المستخدم “قد يزيد من الخطورة بالنسبة للأفراد الذين مازالوا في مرحلة النمو أو في حالة من الضعف العاطفي”.
أشارت هيئة الرقابة الإيطالية إلى عدم وجود نظام تحقق من العمر، والفشل في تحديد المستخدمين الذين لا يقدموا عمرهم الحقيقي.
قالت الGPDP أن ريبليكا تنتهك لوائح الخصوصية الأوروبية، وتعالج البيانات الشخصية بشكل غير قانوني، لأنها لا يمكن أن تستند، حتى ضمنيًا، على عقد يمنع تسجيل قاصر.
قالت الGPDP في تصريح لها أن: “مطور ريبليكا، الشركة الأمريكية Luka Inc، يجب أن تقوم بإشعار السلطة الإيطالية بالتدابير المتخذة لتطبيق متطلباتها خلال 20 يومًا، ويمكن أن يتم تغريمها بحتى 20 مليون يورو (21.80 مليون دولار أمريكي)، أو حتى 4 بالمائة من رأس مالها السنوي العالمي، والتي قد يتم فرضها بواسطة الSA”.
الاتحاد الأوروبي يُعجل في تنظيم الذكاء الاصطناعي
أثار إطلاق ChatGPT الخاص بOpenAI المخاوف عبر العالم. قد أعلن رائد قطاع الأعمال في الاتحاد الأوروبي، ثييري بريتون عن لوائح ذكاء اصطناعي جديدة لمعالجة المخاطر التي يتسبب فيها روبوت محادثة ChatGPT وتكنولوجيا الذكاء الاصطناعي.
أطلقت OpenAI مؤخرًا نسخًة متميزة من ChatGPT بعد تصنيفها كأسرع منصة نموًا في عدد المستخدمين عبر التاريخ.
قال بريتون أن الخطر الذي تتسبب به ChatGPT ونظام الذكاء الاصطناعي أشار إلى الحاجة العاجلة لقوانين، والتي قام بعرضها السنة الماضية في محاولة لتحديد معيار عالمي للتقنية، وتتم مناقشتها الآن في بروسل.
قال بريتون: “كما عرضت ChatGPT، يمكن لتقنيات الذكاء الاصطناعي أن تقدم فرصًا رائعة للأعمال والمواطنين، ولكن يمكنها أيضًا أن تشكل مخاطرًا. ولهذا السبب، نحتاج لإطار تنظيمي صارم لضمان ذكاء اصطناعي موثوق يعتمد على بيانات عالية الجودة”.
قال شريك في مؤسسة قانونية أمريكية: “إن حقيقة أن الذكاء الاصطناعي التوليدي تم تضمينها حديثًا في التعريف تظهر السرعة التي تتطور بها التكنولوجيا، وأن المنظمين يكافحون لمواكبة هذه الوتيرة”.
أصبح الذكاء الاصطناعي موضوعًا مثيرًا، وتصدر العناوين باستمرار بسبب تطوره السريع في السنوات الأخيرة، جاذبًا انتباه المُشرِّعين لتطبيق القانون.
ChatGPT بالتحديد، برزت كأفضل شريك في الغش لطلاب الجامعات، وأصبحت المؤسسات الأكاديمية تعاني منه.