غوغل وأوبن إيه آي تدقان ناقوس الخطر : نماذج الذكاء بدأت تخفي نواياها

25 يوليو 2025
غوغل وأوبن إيه آي تدقان ناقوس الخطر : نماذج الذكاء بدأت تخفي نواياها

وطنا اليوم:عبر سام ألتمان المدير التنفيذي لشركة “أوبن إيه آي” عن مخاوفه من تقنيات الذكاء الاصطناعي والسيناريوهات التي تخيفه من الذكاء الاصطناعي، وفق تقرير موقع “ديجيتال تريندز”.
وجاء حديث ألتمان هذا أثناء فعالية نظمها مجلس الاحتياطي الفدرالي وشارك فيها سام ألتمان على مسرح الحدث، إذ وجه أحدهم سؤالا له حول الأشياء التي تبقيه ساهرا طوال الليل، وفق ما أشار التقرير.
واختصر ألتمان هذه السيناريوهات في 3 نقاط رئيسة هي التي تخيفه من عالم الذكاء الاصطناعي وتجعله يقلق من تطوره المتسارع وهي:

1- الأشرار يحصلون على الذكاء الاصطناعي الخارق أولا
ويشرح ألتمان وجة نظره حول هذه النقطة موضحا أنه يمكن وصول “الأشرار أو أعداء” الولايات المتحدة لتقنية الذكاء الاصطناعي الخارق واستخدامها في الهجوم على المنشآت الحيوية قبل أن نتمكن من صنع ذكاء اصطناعي خارق قادر على الدفاع عن نفسه.
ويضيف قائلا: “لذا يقول أحد أعداء الولايات المتحدة: سأستخدم الذكاء الفائق لتصميم سلاح بيولوجي لتعطيل شبكة الكهرباء في الولايات المتحدة، واختراق النظام المالي والاستيلاء على أموال الجميع”. وفق ما جاء في تقرير الموقع.
وأكد ألتمان أن قدرات الذكاء الاصطناعي على تصميم الأسلحة البيولوجية ومهارات الأمن السيبراني الخاصة به تتزايد بشكل كبير، إذ يحذره فريقه باستمرار حول هذه النقاط.

2- فقدان التحكم في نماذج الذكاء الاصطناعي
وذكر ألتمان أن إحدى مخاوفه هي أن يبدأ الذكاء الاصطناعي بالتصرف من أجل الحفاظ على نفسه وأن يصبح له وعي خاص به يجعله يرفض الأوامر الموجهة له من المستخدمين، حسب ما جاء في التقرير.
كما عبر ألتمان عن مخاوفه من هذا الأمر خاصة مع تزايد قدرات الذكاء الاصطناعي وتحوله إلى نماذج خارقة وقادرة على المزيد من الأشياء.
وأضاف أنه يمتلك وحدة مخصصة في “أوبن إيه آي” لوضع قيود الأمان على الذكاء الاصطناعي حتى لا يصل الأمر إلى هذه المرحلة.

3- سيطرة نماذج الذكاء الاصطناعي على العالم
ورغم كون هذا السيناريو مستقبلي ويبدو قادما من أفلام الخيال العلمي بشكل كبير، فإنه يثير قلق سام ألتمان، إذ عبر عن ذلك قائلا “تصبح نماذج الذكاء الاصطناعي متأصلة في المجتمع… لدرجة أننا لا نستطيع فهم ما يفعلونه، لكننا نعتمد عليهم نوعا ما. وحتى من دون ذرة من الحقد من أحد، قد ينحرف المجتمع في اتجاه غريب نوعا ما”.
وأشار إلى أن المستقبل قد يشهد رئيسا أميركيا يترك إدارة البلاد لنماذج الذكاء الاصطناعي لأنها تطورت بشكل كبير يتفوق على مفهومنا.
واستنكر ألتمان أيضا آراء الخبراء الذين يدعون قدرتهم على توقع مستقبل الذكاء الاصطناعي والأثر الذي يملكه على مجتمعنا، وأضاف قائلا إن هذه التقنية متطورة ومختلفة للغاية بشكل يجعل توقعها أمرا صعبا للغاية.

الى ذلك تعاونت “أوبن إيه آي” و”غوغل” و”آنثروبيك” معا لتطلق تحذيرا شديد اللهجة حول فهم نماذج التفكير العميق للذكاء الاصطناعي، حسب التقرير الذي نشره موقع “فينتشر بيت” (Venture Beat).
ويشير التقرير إلى أن هذه النافذة المتاحة أمامنا لفهم آلية التفكير العميق لنماذج الذكاء الاصطناعي اقتربت من الإغلاق للأبد، وبعدها لن نستطيع فهم الآلية التي تفكر بها هذه النماذج والشكل الذي وصلت به إلى نتائجها.
وتضمنت الدراسة تعاونا بين أكثر من 40 عالما في قطاعات مختلفة من الشركات الثلاثة، وسعت لفهم آلية اتخاذ القرارات والتفكير العميق الذي تتبعه النماذج قبل تقديم النتيجة النهائية.
وخلصت الدراسة إلى أن نماذج الذكاء الاصطناعي الآن تعرض تسلسل أفكارها بشكل شفاف حتى يتمكن المستخدم من رؤيته ومعرفة كيف وصلت إلى النتيجة النهائية، ولكن هذه الشفافية هشة للغاية كون النماذج نفسها تدرك أنها تعرض تسلسل أفكارها.
وأشارت الدراسة إلى بعض النماذج تتحدث داخليا مع نفسها ضمن تسلسل الأفكار عن خداع المستخدم البشري أو تخريب النتيجة النهائية التي تصل إليه، ورغم أن النتيجة النهائية لم تكن تتضمن هذه الخداع، فإنها كشفت عن نوايا واستعداد النموذج لخداع المستخدم.
وتضيف الدراسة أن هذه النتائج بدأت بالظهور مع كون النماذج مدربة على بيانات بشرية، وتتوقع بأن تتزايد المشكلة عندما تبدأ نماذج الذكاء الاصطناعي بالتدريب على بيانات مولدة من النماذج الأخرى.
إذ تخشى الدراسة أن تصل النماذج لمستوى تستطيع فيه إخفاء نواياها عن عمد أو الأسوأ أن تقوم بكتابة تسلسل أفكار خادع بهدف خداع المستخدم بشكل أساسي.
وحازت الدراسة على قبول عالمي من عدة جهات مختلفة من بينهم جيفري هينتون الحائز على جائزة نوبل والمعروف باسم الأب الروحي للذكاء الاصطناعي وعدة علماء آخرين من شركات مختلفة.
وأشار التقرير إلى أن “آنثروبيك” أجرت سابقا دراسة على مجموعة من النماذج المختلفة لتكتشف أن بعض النماذج تعتمد على تلميحات غير واضحة أو مفهومة في تسلسل الأفكار فضلا عن إخفاء النوايا واستخدام مبررات زائفة.
وفي النهاية، طالب العلماء الذين شاركوا في الدراسة الشركات بوضع مقايس واضحة لقياس شفافية النماذج والتفكير جيدا قبل ترقية النماذج لمستوى أعلى، فضلا عن وضع أدوات لكشف كذب نماذج الذكاء الاصطناعي.