9 حزيران 2024 وكالات :المصدررصد الموقع :الكاتب
أفادت تقارير بأن شركة OpenAI تدرك المخاطر الكبيرة الناجمة عن بناء نظام ذكاء اصطناعي عام (AGI)، لكنها تتجاهلها.
يعد AGI نوعا افتراضيا من الذكاء الاصطناعي، يتميز بالقدرة على الفهم والتفكير من خلال مجموعة واسعة من المهام. وستحاكي هذه التكنولوجيا أو تتنبأ بالسلوك البشري، في حين تظهر القدرة على التعلم والتفكير.
وفي مقابلة مع "نيويورك تايمز"، قال الباحث دانييل كوكوتايلو، الذي ترك فريق الحوكمة في Open AI في أبريل، إن احتمال تدمير "الذكاء الاصطناعي المتقدم" للبشرية يبلغ حوالى 70%، لكن الفريق المطور (مقره في سان فرانسيسكو) يمضي قدما في ذلك بغض النظر.
وقال الموظف السابق: "إن شركة OpenAI متحمسة حقا لبناء الذكاء الاصطناعي العام، وتسعى لتكون الأولى في هذا المجال".
وأضاف كوكوتايلو أنه بعد انضمامه إلى OpenAI قبل عامين، حيث تم تكليفه بالتنبؤ بتقدم التكنولوجيا، توصل إلى استنتاج مفاده أن الصناعة لن تقوم بتطوير الذكاء الاصطناعي العام بحلول عام 2027 فحسب، بل هناك فرصة قوية لأن تؤدي هذه التكنولوجيا إلى إلحاق ضرر كارثي بالبشرية أو حتى تدميرها، وفقا لصحيفة "نيويورك تايمز".
كما أفاد كوكوتايلو بأنه أخبر الرئيس التنفيذي لـOpenAI، سام ألتمان، أن الشركة يجب أن "تركز على السلامة" وتنفق المزيد من الوقت والموارد على مواجهة المخاطر التي يشكلها الذكاء الاصطناعي بدلا من الاستمرار في جعله أكثر ذكاء. وزعم أن ألتمان اتفق معه، لكن شيئا لم يتغير منذ ذلك الحين.
ويعد كوكوتايلو جزءا من مجموعة من المطلعين على OpenAI، الذين أصدروا أخيرا رسالة مفتوحة تحث مطوري الذكاء الاصطناعي على تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.
ودافعت OpenAI عن سجل السلامة الخاص بها وسط انتقادات الموظفين والتدقيق العام، قائلة إن الشركة فخورة بسجلها الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانا، وتؤمن بنهجها العلمي لمعالجة المخاطر.