نصائح كاسبرسكي للحد من مخاطر الذكاء الاصطناعي التوليدي في بيئة العمل

منذ 5 أيام
نصائح كاسبرسكي للحد من مخاطر الذكاء الاصطناعي التوليدي في بيئة العمل

أصبحت أدوات الذكاء الاصطناعي التوليدية سريعًا جزءًا أساسيًا من بيئة العمل الحديثة، حيث تدعم مجموعة من مهام العمل بدءًا من كتابة التقارير إلى تحليل جداول البيانات والمزيد.

وجدت دراسة عالمية أجرتها كاسبرسكي أن 95% من كبار المسؤولين التنفيذيين الذين شملهم الاستطلاع كانوا على علم بأن شركاتهم كانت تستخدم أدوات الذكاء الاصطناعي التوليدية، وكان أكثر من النصف (59%) قلقين بشأن مخاطر استخدام الموظفين لهذه الأدوات، حيث يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى الكشف عن معلومات سرية عن غير قصد. ولهذا السبب يقدم الخبراء… نصائح Kaspersky حول كيفية تمكين الشركات من استخدام أدوات الذكاء الاصطناعي التوليدية بطريقة تقلل المخاطر.

وقال فلاديسلاف توشكانوف، مدير مجموعة التعلم الآلي في كاسبرسكي: “تمكن أدوات الذكاء الاصطناعي التوليدية الموظفين من أن يكونوا أكثر إنتاجية حيث تساعد التكنولوجيا في تحليل البيانات وتنفيذ المهام الروتينية. ومع ذلك، يستخدم العديد من الأشخاص الذكاء الاصطناعي دون الحصول على الأذونات اللازمة من صاحب العمل. وهذا يمكن أن يشكل مخاطر كبيرة على المنظمة. على سبيل المثال، لا يزال تسرب البيانات يمثل مشكلة كبيرة في الصناعة، بالإضافة إلى ذلك، يمكن للموظفين تلقي معلومات غير صحيحة والتصرف بناءً عليها بسبب أخطاء الذكاء الاصطناعي. ويحدث هذا عندما تقدم النماذج اللغوية الكبيرة معلومات خاطئة بطريقة تبدو موثوقة. “يمكن أن تكون هذه المفاهيم الخاطئة أكثر خطورة عند استخدام الذكاء الاصطناعي التوليدي لتقديم المشورة حول كيفية إكمال مهام محددة في مكان العمل.”

لقد أصبح التصدي لهذا التحدي الآن ضرورة حتمية للأعمال. ووجد استطلاع آخر أجرته كاسبرسكي أن 40% من المشاركين في الشرق الأوسط وتركيا وإفريقيا يعتبرون حاليًا الذكاء الاصطناعي جزءًا من فريق العمل. ومما يزيد الأمور تعقيدًا هو مدى فعالية الجهات الفاعلة في التهديد في استخدام أدوات الذكاء الاصطناعي التوليدية لإنشاء هجمات هندسة اجتماعية أكثر إقناعًا عند استهداف الأفراد. وتشمل هذه التطبيقات مثل إنشاء رسائل تصيد شخصية؛ إنشاء مقاطع مزيفة بأصوات أو مقاطع فيديو أو نصوص واقعية تنتحل شخصية الأشخاص؛ ونشر حملات تضليل من شأنها التأثير على الرأي العام أو طمس الحقيقة.

 

وتابع توشكانوف: “هذا لا يعني أنه يجب على المنظمات حظر أدوات الذكاء الاصطناعي التوليدية بالكامل”. وبدلاً من ذلك، يحتاج صناع القرار إلى إجراء تقييم شامل للمخاطر لفهم أجزاء العمليات التجارية اليومية التي يمكن أتمتتها باستخدام أدوات الذكاء الاصطناعي التوليدية دون زيادة التهديدات للمؤسسات.

يتيح ذلك للشركات اتباع نهج مركزي لتقديم الذكاء الاصطناعي التوليدي. من الممكن الحصول على الخدمات من خلال الحسابات المؤسسية من مقدمي الخدمات السحابية مع ضمان كافة معايير الأمان اللازمة. قد تتضمن هذه المعايير مراقبة معلومات التعريف الشخصية المحتملة في الرسائل والإشراف العام. يجب على المؤسسات أيضًا تثقيف موظفيها حول الاستخدام المقبول للذكاء الاصطناعي التوليدي والطرق المناسبة للوصول إليه تحت إشراف الشركة.

يمكن للشركات تحسين إنتاجية الموظفين بشكل كبير وزيادة الرضا الوظيفي من خلال فهم فوائد ومخاطر استخدام الذكاء الاصطناعي التوليدي والتأكد من اتخاذ التدابير الأمنية اللازمة لمعالجة المخاطر المحتملة. يجب أن تتضمن القواعد العامة للموظفين عدم مشاركة البيانات السرية مع أدوات الذكاء الاصطناعي؛ ولا تعتمد على نصائحهم في الحالات الحساسة؛ التحقق من المعلومات؛ وتذكر أنه من الممكن أن يتم تسريب البيانات المقدمة إلى برنامج الدردشة الآلي. ومن الضروري أيضًا التحقق من أن جميع أجهزة الكمبيوتر والخوادم التي تعمل على أنظمة تعتمد على نماذج لغوية كبيرة محمية بأدوات الأمان الحديثة.

واختتم توشكانوف قائلاً: “قد لا يكون حظر أدوات مثل ChatGPT وغيرها هو الخيار الأفضل”. يمكن استخدام الذكاء الاصطناعي التوليدي بشكل إيجابي من خلال إيجاد توازن بين الحذر الشديد والحذر الزائد. “على نطاق أوسع، يمكن للشراكات بين القطاعين العام والخاص أن تجعل الذكاء الاصطناعي التوليدي عامل تمكين مهم لنمو الأعمال، وزيادة الإنفاق على الابتكار والإدارة السليمة للمخاطر.”


شارك