كشف سام ألتمان في تغريدة له أن OpenAI ستمنح معهد سلامة الذكاء الاصطناعي الأمريكي إمكانية الوصول المبكر إلى نموذجه التالي كجزء من جهود السلامة.
ومن الواضح أن الشركة كانت تعمل مع الكونسورتيوم "لدفع علم تقييمات الذكاء الاصطناعي إلى الأمام"، وأنشأ المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا معهد سلامة الذكاء الاصطناعي في وقت سابق من هذا العام، على الرغم من إعلان نائب الرئيس كامالا هاريس عن ذلك في عام 2023 في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة.
استنادًا إلى وصف NIST للاتحاد، فإن المقصود منه "تطوير مبادئ توجيهية ومعايير قائمة على العلم ومدعومة تجريبيًا لقياس وسياسات الذكاء الاصطناعي، ووضع الأساس لسلامة الذكاء الاصطناعي في جميع أنحاء العالم".
وبالمثل، تعهدت الشركة، إلى جانب شركة DeepMind، بمشاركة نماذج الذكاء الاصطناعي مع حكومة المملكة المتحدة في العام الماضي.
كما لاحظت TechCrunch، كانت هناك مخاوف متزايدة من أن OpenAI تجعل السلامة أقل أولوية لأنها تسعى إلى تطوير نماذج ذكاء اصطناعي أكثر قوة.
وكانت هناك تكهنات بأن مجلس الإدارة قرر طرد سام ألتمان من الشركة وقد تمت إعادته بسرعة كبيرة بسبب مخاوف تتعلق بالسلامة والأمن، ومع ذلك، أخبرت الشركة الموظفين في مذكرة داخلية في ذلك الوقت أن ذلك كان بسبب "عطل في الاتصال".
وفي مايو من هذا العام، اعترفت شركة OpenAI بأنها قامت بحل فريق Superalignment الذي أنشأته لضمان بقاء البشرية آمنة مع تقدم الشركة في عملها في مجال الذكاء الاصطناعي التوليدي.
قبل ذلك، غادر الشركة الشريك المؤسس لشركة OpenAI وكبير العلماء إيليا سوتسكيفر، والذي كان أحد قادة الفريق.
كما استقال جان لايكي، الذي كان أيضًا أحد قادة الفريق ، وقال في سلسلة من التغريدات إنه كان يختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت وأن "ثقافة السلامة والعمليات قد اتخذت المقعد الخلفي أمام المنتجات اللامعة". أنشأت شركة OpenAI مجموعة أمان جديدة بحلول نهاية شهر مايو، ولكن يقودها أعضاء مجلس الإدارة ومن بينهم ألتمان، مما أثار مخاوف بشأن الرقابة الذاتية .