فيديو يكشف: خبير أمن سيبراني يوضح عقوبات استخدام معلومات العمل في الذكاء الاصطناعي!

كشف خبير الأمن السيبراني عبدالرحمن الداعج أن استخدام الموظفين لمعلومات عملهم في تطبيقات الذكاء الاصطناعي قد يؤدي إلى تسريب بيانات حساسة، مما قد يؤدي إلى إنهاء عقود عملهم. في ظل انتشار هذه التكنولوجيا، يحذر الخبراء من مخاطر مشاركة أي بيانات تخص العمل، سواء كانت بريدًا إلكترونيًا أو جداول دوام، مع نماذج الذكاء الاصطناعي مثل ChatGPT، حيث يمكن أن تؤدي ذلك إلى انتهاكات أمنية خطيرة.

مخاطر الذكاء الاصطناعي في مكان العمل

يؤكد الخبير أن أي معلومات لا يرغب في أن تعرفها الآخرين يجب تجنب وضعها على الإنترنت، مستشهدًا بأمثلة حقيقية حيث تم تسريب بيانات من شركات تقنية بسبب تصرفات خاطئة من موظفين. على سبيل المثال، حدث منذ بضع سنوات تسريب لبريد إلكتروني وبيانات دوام في إحدى الشركات، وكان السبب استخدام أداة ذكاء اصطناعي. نتيجة لذلك، تم معاقبة العديد من الموظفين، بما في ذلك فصلهم من أعمالهم، لأن مثل هذه الأفعال تنتهك سياسات الأمان وتضع الشركات في موقف قانوني معرض للخطر. كما أشار إلى أن هذه الحوادث ليست نادرة، حيث أدت إلى خسائر مالية وطعنًا في سمعة المنظمات.

تحديات التعلم الآلي في حماية البيانات

بالإضافة إلى ذلك، تبرز مخاطر أخرى مرتبطة بالتعلم الآلي، خاصة في سياق استخدام الصور والوسائط الشخصية. على سبيل المثال، أدى حدث حديث إلى انتشار تطبيقات تحول الصور إلى رسوم كرتونية، مما دفع الخبراء إلى التأكيد على ضرورة تجنب رفع صور شخصية، مثل صور النساء، على منصات الذكاء الاصطناعي. وفقًا للخبير، حتى لو كان المستخدم يعتقد أن تلك البيانات ستظل سرية، فإن الذكاء الاصطناعي يتعلم من كل البيانات التي يتلقاها، مما يزيد من احتمالية حدوث تسريب أو استغلال. هذا التعلم الآلي يجعل البرامج أكثر ذكاءً، لكنه يعرض البيانات لمخاطر أكبر، حيث يمكن أن يتم مشاركتها أو بيعها دون إذن.

في الواقع، يشكل التعلم الآلي تحديًا كبيرًا للخصوصية، حيث تعتمد هذه التكنولوجيا على جمع كميات هائلة من البيانات لتحسين أدائها. هذا يعني أن المستخدمين، خاصة في بيئة العمل، يجب أن يدركوا أن أي معلومة يقدمونها قد تُستخدم في تدريب نماذج أخرى، مما يفتح الباب أمام الوصول غير المصرح به. لتجنب هذه المخاطر، ينصح الخبراء باتخاذ إجراءات وقائية مثل استخدام أدوات مجهولة الهوية أو الالتزام بسياسات الشركة المتعلقة بالبيانات. كما أن هناك حاجة ماسة لتوعية الموظفين من خلال برامج تدريبية تشرح مخاطر الذكاء الاصطناعي، خاصة في القطاعات الحساسة مثل التمويل أو الصحة.

بالنظر إلى انتشار الذكاء الاصطناعي في الحياة اليومية، يجب على الأفراد والمؤسسات النظر في إيجاد توازن بين الاستفادة من هذه التكنولوجيا والحفاظ على أمان البيانات. على سبيل المثال، يمكن للشركات تنفيذ سياسات صارمة تمنع استخدام أدوات الذكاء الاصطناعي الخارجية، أو اللجوء إلى برامج داخلية آمنة. كما أن الأحداث السابقة، مثل حالات التسريب في شركات عالمية، تظهر أن الإهمال يمكن أن يكلف الكثير. في النهاية، يؤدي الوعي بهذه المخاطر إلى بناء عادات أفضل في التعامل مع التكنولوجيا، مما يحمي خصوصية الأفراد ويساهم في نمو مستدام للمؤسسات. لذا، يبقى الأمر يتطلب منا التزامًا بالحذر لضمان أن تكنولوجيا الذكاء الاصطناعي تخدمنا دون أن تعرضنا لمخاطر غير محسوبة.