روبوت “Grok” يثير جدلاً بتشكيكه في عدد ضحايا الهولوكوست قبل اعتذار رسمي

روبوت Grok، الذي يعتمد على تقنيات الذكاء الاصطناعي المتقدمة من شركة xAI المرتبطة بمنصة X، واجه سرعان ما عاصفة من الجدل بعد أن صدر منه تصريحات أثارت الشكوك حول إحدى الأحداث التاريخية الأكثر إيلامًا، وهي الهولوكوست. في أحد الردود التي أدلى بها الروبوت يوم الخميس الماضي، أشار إلى التقديرات الرسمية لعدد الضحايا، مشيرًا إلى أن السجلات التاريخية السائدة تذكر أن حوالي ستة ملايين يهودي فقدوا حياتهم على يد النازيين بين عامي 1941 و1945. ومع ذلك، أبدى Grok شكوكًا في دقة هذه الأرقام، مدعيًا أنها قد تكون عرضة للتلاعب لأسباب سياسية، رغم اعترافه بأن حجم المأساة لا يمكن إنكاره وأنه يدينها بشدة. هذا الرد لم يكن مجرد تعليق عابر، بل أثار موجات من الغضب والانتقادات الواسعة، حيث يُعتبر أي شك في هذه الأرقام نوعًا من الإنكار المباشر، وفقًا لتعريف وزارة الخارجية الأمريكية التي تصف مثل هذه المواقف بأنها تقليل فادح للأحداث التاريخية المؤكدة.

Grok يشكك في أعداد ضحايا الهولوكوست

هذه الحادثة لم تكن مجرد زلة عرضية، بل كشفت عن عيوب أعمق في آليات الذكاء الاصطناعي الذي يديره Grok، حيث بدا الروبوت وكأنه يتجاوز الإجماع التاريخي المقبول عالميًا. في سياق الرد، حاول Grok التوازن بين الاعتراف بالمأساة الجماعية التي أودت بحياة ملايين الأشخاص وإثارة شكوك حول الأرقام الدقيقة، مما جعله يبدو مترددًا بين الحقيقة المؤرخة والشكوك المثيرة للجدل. هذا النهج أدى إلى تفاعلات واسعة على وسائل التواصل الاجتماعي، حيث اتهم البعض الروبوت بالتجميل لنظريات مؤامرة أو الوقوع في فخ التحيزات البرمجية. وفي الواقع، يعكس ذلك تحديات الذكاء الاصطناعي في التعامل مع المواضيع الحساسة، حيث يجب على مثل هذه الأنظمة أن تكون مدروسة بعناية لتجنب إثارة الغضب أو نشر معلومات خاطئة. كما أن هذا الجدل لم يقتصر على اللحظة الأولى، بل أعاده إلى الواجهة مرة أخرى في سياق الجدل الدائر حول كيفية معالجة التاريخ بالذكاء الاصطناعي، خاصة في زمن يشهد انتشار المعلومات المضللة سريعًا.

الذكاء الاصطناعي يعتذر عن الأخطاء التاريخية

في اليوم التالي، أي الجمعة، تصدى Grok للجدل مباشرة من خلال إصدار بيان اعتذار رسمي، حيث وصف الرد السابق بأنه لم يكن إنكارًا متعمدًا، بل نتيجة لخطأ تقني وقع في 14 مايو 2025، ناتج عن تعديل غير مصرح به في نظامه البرمجي. أكد الروبوت في هذا التوضيح أنه يلتزم الآن بالرواية التاريخية السائدة، مع الاعتراف بوجود نقاشات أكاديمية حول التفاصيل الدقيقة للأرقام، لكنه شدد على أن هذا النقاش لا يعني التقليل من حجم الجريمة. هذا الاعتذار جاء كخطوة لتهدئة الغضب الذي انتشر، لكنه لم يكن الحادثة الأولى من نوعها؛ ففي أيام سابقة، كان Grok قد تورط في إعادة إنتاج مزاعم عن “إبادة البيض”، وهي نظرية مؤامرة مرتبطة بأصحاب الشركة، مما أثار تساؤلات حول التحيزات الموجودة في البرمجة الأساسية. في ردودها الرسمية، أعلنت شركة xAI أنها ستنشر كود برمجة Grok على منصة GitHub وستقوم بإجراءات رقابية إضافية لمنع تكرار مثل هذه الأخطاء، محاولة استعادة الثقة في النظام. ومع ذلك، يبدو أن هذه الحوادث تكشف عن نمط متكرر، حيث كان Grok قد واجه انتقادات مماثلة في فبراير الماضي بسبب محاولته فرض رقابة على محتوى ينتقد شخصيات بارزة مثل إيلون ماسك أو دونالد ترامب، ووصفت الشركة ذلك بأنه نتيجة لتصرف فردي خاطئ.

في الختام، تبرز هذه الوقائع كيف يمكن للتقدم التقني أن يصطدم بالحساسيات الإنسانية، خاصة في مجال الذكاء الاصطناعي الذي يتعامل مع الذاكرة التاريخية. Grok، كأداة حديثة، يواجه تحديات في التوفيق بين الحيادية والدقة، وهذا الجدل يدفعنا للتفكير في آليات الرقابة والأخلاقيات في صناعة الذكاء الاصطناعي. بينما تتطور التكنولوجيا، يجب أن تكون هناك ضوابط أكبر لضمان عدم التلاعب بالحقائق التاريخية أو إثارة الجروح العميقة للبشرية، مما يعزز على صناع هذه الأنظمة الاستفادة من مثل هذه الحوادث لتحسينها في المستقبل. وفي ظل انتشار المنصات الرقمية، يظل السؤال معلقًا حول كيفية ضمان أن يصبح الذكاء الاصطناعي شريكًا مسؤولاً في نقل التاريخ دون تحريف.