العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
انطلاقة العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
مديرة الروبوتات في OpenAI استقالت بسبب صفقة مع البنتاغون - ForkLog: العملات الرقمية، الذكاء الاصطناعي، التفرد، المستقبل
ردًا على الاتفاق المثير للجدل بين OpenAI ووزارة الدفاع الأمريكية، غادرت كايتلين كالينوفيسكي منصبها كرئيسة لقسم الأجهزة في الشركة.
عملت كالينوفيسكي في شركة أبل على الأجهزة الحاسوبية لأجهزة Mac، ثم انتقلت إلى Meta، وأصبحت واحدة من المهندسين الرئيسيين في قسم Reality Labs. في عام 2024، انضمت إلى OpenAI، وتولت قيادة قسم الروبوتات والأجهزة الاستهلاكية.
وأشارت في بيانها إلى أن القرار كان «مبدئيًا، وليس شخصيًا»، معبرة عن «احترام عميق» للرئيس التنفيذي لـOpenAI سام ألتمان وفريق الشركة الناشئة.
أكد متحدث باسم OpenAI أن الاتفاق مع البنتاغون «يخلق مسار عمل لاستخدام مسؤول للذكاء الاصطناعي لأغراض الأمن القومي، مع تحديد خطوط حمراء واضحة: لا مراقبة داخلية ولا أسلحة مستقلة».
تم توقيع الاتفاق بين OpenAI والبنتاغون في نهاية فبراير، بعد أن وصلت المفاوضات بين Anthropic ووزارة الدفاع إلى طريق مسدود.
سرعان ما اعترف ألتمان بأن الصفقة كانت «متهورة»، وأنها لا تبدو جيدة من ناحية الصورة العامة للشركة الناشئة.
أثرت الحالة على شعبية ChatGPT وClaude. زاد عدد عمليات حذف أول روبوت دردشة بنسبة 295%، وارتفع الثاني إلى قمة تصنيفات متجر التطبيقات.
في يوليو 2025، أبرمت وزارة الدفاع الأمريكية عقودًا بقيمة تصل إلى 200 مليون دولار مع Anthropic وGoogle وOpenAI وxAI لتطوير حلول ذكاء اصطناعي في مجال الأمن.
وفي يناير 2026، ذكرت صحيفة WSJ أن هناك خطرًا بتمزيق الاتفاق مع Anthropic. نشأت الخلافات بسبب سياسة الأخلاق الصارمة للشركة الناشئة. تحظر القواعد استخدام نموذج Claude للمراقبة الجماعية والعمليات القتالية المستقلة.
وفي فبراير 2026، استخدمت القوات المسلحة الأمريكية نموذج Claude في عملية لاعتقال رئيس فنزويلا نيكولاس مادورو، مما زاد من تصعيد النزاع.
التقى الرئيس التنفيذي للشركة داريو أموديي مع وزير الدفاع بيت هيغسيت لمناقشة الوضع. ووجهت الوزارة إنذارًا نهائيًا: يجب على Anthropic قبول الشروط الحكومية قبل 27 فبراير.
قال داريو أموديي، الرئيس التنفيذي للشركة، إنه يفضل عدم التعاون مع البنتاغون على الموافقة على استخدام تقنياتهم، التي قد «تقوض، لا تحمي القيم الديمقراطية».
وفي نهاية فبراير، أمر الرئيس الأمريكي دونالد ترامب جميع الوكالات الفيدرالية بالتوقف تمامًا عن استخدام تقنيات Anthropic خلال ستة أشهر.
وصف الشركة الناشئة بأنها «خارج السيطرة» ويقودها أشخاص «لا يفهمون ما هو العالم الحقيقي».
اعترف البنتاغون رسميًا بأن Anthropic تمثل «خطرًا على سلسلة التوريد» — مما يهدد أعمال الشركة مع المقاولين الحكوميين الآخرين. وأكدت مايكروسوفت وجوجل أنهما ستواصلان تقديم منتجات الشركة.
هل ستصل الأمور إلى المحكمة؟
قال أموديي إن شركته ستطعن في قرار وزارة الدفاع باعتباره «غير مبرر قانونيًا»، معتبرًا أن القرار «غير منطقي».
وفي بيان، ذكر أن قرار البنتاغون لا يشمل غالبية عملاء Claude.
وأضاف أن الشركة كانت تجري مفاوضات مثمرة مع وزارة الدفاع لعدة أيام، لكنها فشلت بعد تسريب مذكرة داخلية. وصفت المذكرة علاقات OpenAI مع الوزارة بأنها «عرض للسلامة أكثر منه حماية حقيقية من المخاطر».
اعتذر أموديي عن التسريب، موضحًا أن الشركة لم تكن تقصد الكشف عن محتوى المذكرة وأنها لم تعطِ تعليمات لأي شخص بفعل ذلك.
أكد رئيس الشركة أن الوثيقة كُتبت خلال ساعات بعد سلسلة من الإعلانات التي تفيد بأن Anthropic ستُزال من الأنظمة الفيدرالية. واعتذر عن نبرة الرسالة، واصفًا ذلك اليوم بأنه «صعب على الشركة».
وأضاف أن المذكرة تعتبر «تقييمًا قديمًا» ولا يعكس «رأيًا مدروسًا ومتزنًا». وذكر أن الأولوية القصوى للشركة هي ضمان وصول الجنود الأمريكيين وخبراء الأمن القومي إلى أدوات مهمة خلال العمليات الكبرى المستمرة.
ستواصل Anthropic تزويد وزارة الدفاع بنماذجها «بسعر رمزي» طالما استدعى الأمر.
وأشار المستشار السابق للبيت الأبيض في مجال الذكاء الاصطناعي دين بول إلى أن من الصعب على الشركة الطعن في قرار البنتاغون.
وقال: «المحاكم تتردد إلى حد كبير في التشكيك في قرارات الحكومة المتعلقة بما هو مسألة أمن قومي وما ليس كذلك. يتطلب ذلك عبور حاجز عالٍ جدًا. لكن الأمر ليس مستحيلًا»، مضيفًا أن الأمر يتطلب إرادة قوية.
وتذكر أن شركة Anthropic خففت سياستها الأمنية الرئيسية في فبراير، موضحة أن ذلك ضروري للحفاظ على قدرتها التنافسية.