الرئيسيةالأخبارمايكروسوفت تحذر موظفيها من مشاركة البيانات الحساسة مع ChatGPT

مايكروسوفت تحذر موظفيها من مشاركة البيانات الحساسة مع ChatGPT

حذرت مايكروسوفت موظفيها من مشاركة البيانات الحساسة مع روبوت محادثة الذكاء الاصطناعي، ChatGPT من OpenAI. سأل موظفو الشركات الأمريكية متعددة الجنسيات العملاقة في مجال التكنولوجيا في منتدى داخلي عما إذا كانت ChatGPT أو أية أدوات ذكاء اصطناعي أخرى من OpenAI مناسبة للاستخدام في عملهم، حسبما أفادت Business Insider.

اقرأ أيضًا: 30% من طلاب الجامعات يستخدمون ChatGPT

ردًا على هذا السؤال، سمح كبير المهندسين من مكتب مدير التكنولوجيا التنفيذي باستخدام ChatGPT ولكنه لم يستطع مشاركة المعلومات السرية مع روبوت دردشة الذكاء الاصطناعي.

كتب كبير المهندسين في منشور داخلي، وفقًا لإنسايدر: “من فضلكم لا تشاركوا البيانات الحساسة مع OPENAI، حيث أنها يمكن أن تستخدمها في تدريب النماذج المستقبلية”.

ChatGPT التي وصلت منذ شهر فقط، بالفعل تثير المخاوف في القطاع التعليمي.
أصبحت مايكروسوفت شريك OpenAI، الشركة الأم لChatGPT، وأكدت استثمار بقيمة عشرة مليار دولار.

تخطط مايكروسوفت لدمج تكنولوجيا OpenAI مع منتجاتها، بما فيها محرك بحث بينج والبرامج الأخرى لتحسين قدراتها كما ذُكِر من قبل.

قد يشمل القلق الكبير لمايكروسوفت بخصوص “البيانات الحساسة” مشاركة أكواد البرمجة الداخلية، وطلب المراجعات والمساعدة من روبوت الدردشة.

أمازون قلقة من نفس الشيء

ChatGPT تصدرت العناوين باستمرار منذ إطلاقها في نوفمبر الماضي، ولكن تم حظرها أيضًا وبخاصٍة في القطاع التعليمي حيث أصبحت شريك في الغش في واجبات التلاميذ المصرية. مؤخرًا، أثارت خوف عمالقة التكنولوجيا أيضًا من استخدامها.

حذرت أمازون موظفيها من ChatGPT في الأسبوع الماضي، كما ذكرت إنسايدر.
تدعي إنسايدر أيضًا أن محامي أمازون حث الموظفين على عدم مشاركة الأكواد مع ChatGPT عبر نموذج اتصال داخلي.

كتب المحامي: “إن هذا ضروري حيث أن مدخلاتك يمكن أن يتم استخدامها كبيانات تدريبية لاحقًا لCHATGPT، وإننا لا نريد أن تحتوي أو تتشابه مخرجاته مع بياناتنا السرية (ولقد رأيت بالفعل في بعض الأحيان أن مخرجاته تتشابه كثيرًا مع المواد الموجودة)”.

ركز المحامي بشكل أكبر على عدم مشاركة الموظفين “لأية معلومات سرية لأمازون” (بما فيها كود أمازون الذين يعملون عليه) مع ChatGPT عبر Slack.

قلق بخصوص البيانات الخاصة

مع تزايد المخاوف بشأن خصوصية البيانات بين الشركات الكبيرة، وجه ممل OpenAI البيانات بخصوص بيانات الشركة وسياسة السرية الخاصة بها لصفحة الأسئلة الشائعة الخاصة بChatGPTإن شروط الخدمة الخاصة بOpenAI تعطي الشركة الحق في استخدام كل المدخلات والمخرجات التي تم توليدها بواسطة مستخدمي ChatGPT، مع اشتراط محو معلومات العريف الشخصية (PII) من البيانات المستخدمة.

قالت إيميلي بيندر، والتي تقوم بتدريس اللغويات الحاسوبية في جامعة واشنطن، أنه على أية حال، فإنه من مستحيل بعض الشيء لOpenAI أن تقوم بتحديد ومحو كل البيانات الشخصية من البيانات المقدمة لChatGPT.

قالت بيندر: “oPENAI أبعد ما يمكن عن كونها شفافة بخصوص كيفية استخدامها للبيانات، ولكن إذا كانت ستقوم بدمج واستغلال البيانات للتدريب، فإنني أتوقع وجود تعاون: بعد أشهر قليلة من الاستخدام الشاسع لchatgpt، هل سيمكن استخلاص البيانات السرية للشركات مع الأوامر المكتوبة بذكاء؟”

فينسنت كونيتسر، أستاذ علوم الكمبيوتر ومدير معمل الذكاء الاصطناعي في جامعة كارنيغي ميلون قال: “جميعنا سويًا سنحتاج لفهم ما يجب توقعه من الجميع في هذه المواقف. هل المسؤولية تقع على عاتق الموظفين في عدم مشاركة المعلومات السرية، أم أنها مسؤولية OpenAI في استخدام المعلومات بحرص، أو مزيج منهما؟”

مقالات ذات صلة

آخر فيديو

الأكثر شهرة