شركة فاعلة في مجال أبحاث وتطوير الذكاء الاصطناعي في الولايات المتحدة، اشتهرت بتطوير عائلة نماذج “كلود” (Claude) التي تمثل نواتها التقنية الأساسية، إلى جانب تبنيها مقاربة “الذكاء الاصطناعي الدستوري” لضبط سلوك النماذج وضمان توافقها مع القيم الإنسانية.
وبرزت أنثروبيك لاعبا مؤثرا ليس فقط على المستوى التقني، بل أيضا في تقاطع التكنولوجيا مع السياسات العامة، خاصة مع تصاعد التوتر بينها وبين وزارة الحرب الأمريكية (البنتاغون) على خلفية رفضها توظيف تقنياتها في الاستخدامات العسكرية، وهو ما استدعى تدخلات ومناقشات رفيعة المستوى داخل البيت الأبيض.
النشأة والتأسيس
تأسست شركة أنثروبيك عام 2021 على يد مجموعة من الباحثين السابقين في شركة “أوبن أي آي” (Open AI)، في سياق تحولات وانقسامات بارزة شهدها قطاع الذكاء الاصطناعي، وذلك بهدف تأسيس كيان جديد برؤية مختلفة.
وجاءت نشأة الشركة على يد مجموعة من الأسماء البارزة في المجال، من بينهم داريو أمودي وشقيقته دانيلا أمودي، إلى جانب الفيزيائي النظري جاريد كابلان، والباحث كريس أولاه، وقد سعى هؤلاء إلى تطوير نموذج عمل يوازن بين التقدم التقني والاعتبارات الأخلاقية.
فلسفة الشركة
تقوم الفلسفة المؤسسية لشركة أنثروبيك على مفهوم محوري يتمثل في “سلامة الذكاء الاصطناعي” (AI Safety)، وهو التوجه الذي تبناه مؤسسوها عقب انشقاقهم عن شركة “أوبن أي آي”، انطلاقا من قناعة بضرورة ضمان توافق أنظمة الذكاء الاصطناعي مع المصالح البشرية، ومنع انحرافها نحو استخدامات ضارة.
وصيغت هذه الفلسفة من مجموعة من المبادئ المترابطة التي شكلت الإطار الأخلاقي والاستراتيجي للشركة، فاعتمدت على هيكل قانوني من نوع “شركة المنفعة العامة” (PBC)، وهو نموذج لا يختزل أهداف الشركة في تحقيق الربح، بل يفرض التزاما مؤسسيا بالتطوير المسؤول للتقنيات بما يخدم المنفعة طويلة الأمد للبشرية.
كما طورت مقاربة “الذكاء الاصطناعي الدستوري” (Constitutional AI) التي تقوم على تدريب النماذج وفق “دستور” من القيم والمبادئ الأخلاقية الموجهة، بهدف ضمان أن تكون مخرجات الأنظمة “مفيدة، وصادقة، وغير ضارة”، بما يعزز موثوقيتها في الاستخدامات الواقعية.
وتنطلق رؤية الشركة من مفهوم “إمساك النور والظل” (Hold Light and Shade)، وهو طرح فلسفي يوازن بين إدراك المخاطر الكارثية المحتملة للذكاء الاصطناعي، والعمل في الوقت ذاته على تسخير فوائده الاستثنائية، بما يعكس وعيا مزدوجا بطبيعة هذه التكنولوجيا.
كما تسعى أنثروبيك إلى قيادة ما تصفه بـ”سباق نحو القمة” في مجال الأمان عبر دفع شركات التكنولوجيا إلى التنافس على تطوير الأنظمة الأكثر أمانا وموثوقية، بدلا من الاكتفاء بتعظيم القدرات التقنية دون ضوابط.

أبرز منتجاتها
تطوّر شركة أنثروبيك منظومة متكاملة من النماذج اللغوية والتطبيقات الموجهة لبيئات العمل والمطورين، ضمن استراتيجية تستهدف دمج الذكاء الاصطناعي في العمليات المهنية والتقنية بشكل عملي وآمن. ويمكن عرض أبرز منتجاتها ومشاريعها على النحو الآتي:
- تُعد عائلة نماذج “كلود” المنتج المحوري للشركة، وهي سلسلة من “النماذج اللغوية الضخمة التي شهدت إصدارات عدة متعاقبة مع تنويعات مصممة لتلبية احتياجات مختلفة، مثل “أوبوس” (Opus) و”سونيت” (Sonnet) و”هايكو” (Haiku).
وفي سياق توسيع الاستخدام المؤسسي، طورت الشركة أداة “كلود كو-وورك”، وهي منصة موجهة لأتمتة سير العمل داخل المؤسسات، إذ تتيح للذكاء الاصطناعي التعامل مع الملفات عبر قراءتها وتعديلها وإنشائها، بما يدعم تنفيذ مهام متسلسلة في مجالات مثل الموارد البشرية والخدمات المالية والتصميم.
كما أطلقت أنثروبيك أداة “كلود كود”، وهي بيئة تطوير تستهدف المبرمجين، وتوفر دعما في كتابة الشيفرات البرمجية، وتحليل البيانات، والتكامل مع الأنظمة الداخلية للشركات، بما يعزز كفاءة فرق التطوير.
وفي إطار تلبية متطلبات الجهات الرسمية، قدمت الشركة نموذج “كلود غُوف”، وهو إصدار مخصص للاستخدام الحكومي، يتميز بامتثال صارم للمعايير التنظيمية، ويحتوي على طبقات إضافية من الضبط الأمني والرقابي.
- وعلى مستوى البنية التقنية، طرحت الشركة “بروتوكول سياق النموذج” (MCP)، وهو معيار مفتوح يهدف إلى ربط المساعد الذكي بالأدوات الفعلية وقواعد البيانات داخل بيئات العمل.
كما أطلقت مجموعة من الإضافات التي تتيح تخصيص وظائف “كلود” لأدوار محددة، مثل المبيعات، والتحليل القانوني، ومعالجة البيانات، والبحث المؤسسي.
- أما في مجال الأمن السيبراني، فقد طورت الشركة نموذج “ميثوس” (Mythos)، وهو نظام يتمتع بقدرات متقدمة في اكتشاف الثغرات الأمنية داخل أنظمة التشغيل.
ونظرا لحساسية هذه القدرات، امتنعت أنثروبيك عن إتاحته بشكل عام، وبدلا من ذلك أطلقته ضمن مشروع “غلاس سوينغ” (Project Glasswing) الذي يركز على تقييم وتأمين البرمجيات الحيوية بالتعاون مع شركات تقنية كبرى مثل غوغل ومايكروسوفت وأمازون، إضافة إلى مؤسسات مالية وحكومية.
- وفي المجال التعليمي، دخلت الشركة في شراكة مع منظمة “كود باث”، بهدف دمج أدواتها ضمن المناهج الجامعية، وتوفير تدريب عملي للطلاب -ولا سيما من الفئات ذات الدخل المحدود- على تطوير البرمجيات واستخدام تقنيات الذكاء الاصطناعي في بيئات واقعية.
خلافها مع البيت الأبيض
ظهر الخلاف بين شركة أنثروبيك ووزارة الحرب الأمريكية بسبب التباين الجوهري بين مقاربة الشركة القائمة على “سلامة الذكاء الاصطناعي” وبين التوجهات العسكرية التي تسعى إلى توظيف هذه التقنيات ضمن الاستخدامات الحربية والأمنية.
وبدأت الأزمة مع توقيع عقد أولي عام 2025 بين أنثروبيك ووزارة الحرب بلغت قيمته نحو 200 مليون دولار، بهدف دمج تقنيات الشركة في أنظمة سرية، إلا أن المفاوضات اللاحقة كشفت عن فجوة عميقة، إذ وضعت الشركة ما وصفته بـ”الخطوط الحمراء”، ورفضت منح البنتاغون حق الاستخدام العسكري غير المقيد لنموذجها كلود.
وتركز هذا الرفض بشكل خاص على حظر استخدام تقنياتها في تطوير “أسلحة فتاكة ذاتية التشغيل بالكامل دون إشراف بشري”، إضافة إلى رفض توظيفها في المراقبة الجماعية للمواطنين داخل الولايات المتحدة.
وتصاعد التوتر في فبراير/شباط 2026، حين قرر الرئيس الأمريكي دونالد ترمب، بالتعاون مع وزير الحرب بيت هيغسيث إنهاء العقود المبرمة مع الشركة وقطع العلاقات معها، كما أصدر تعليماته للحكومة الأمريكية “بالتوقف فورا” عن استخدام تقنية أنثروبيك.
كما وجّهت الإدارة الأمريكية الوكالات الحكومية إلى التوقف الفوري عن استخدام تقنيات “أنثروبيك”، في خطوة رافقها هجوم سياسي علني على الشركة وقيادتها.
ولم يقتصر التصعيد على إنهاء التعاقدات، بل امتد إلى إدراج أنثروبيك على “القائمة السوداء”، وتصنيفها رسميا باعتبارها “خطرا على سلاسل التوريد” يهدد الأمن القومي، وهي خطوة غير معتادة عادة ما تُستخدم بحق شركات أجنبية، مثل الشركة الصينية هواوي.
وردت الشركة على هذه الإجراءات عبر مسار قانوني، إذ رفعت في مارس/آذار 2026 دعاوى قضائية أمام محكمة فدرالية في سان فرانسيسكو ضد إدارة ترمب ووزارة الحرب، واعتبرت أن قرار إدراجها في القائمة السوداء يمثل إجراء انتقاميا غير قانوني على خلفية خلاف سياسي وتقني، كما ينتهك التعديل الأول من الدستور الأمريكي المرتبط بحرية التعبير.

ورغم هذا التصعيد المتبادل، شهدت الأزمة لاحقا ما يمكن وصفه بـ”انفراجة تكتيكية” مدفوعة بتطورات تقنية لافتة، فقد أطلقت الشركة نموذجا جديدا يحمل اسم “ميثوس” أظهر قدرات متقدمة في اكتشاف الثغرات السيبرانية تفوق الأداء البشري، وأثار ذلك مخاوف داخل الإدارة الأمريكية بشأن المخاطر المحتملة على البنية التحتية والقطاع المالي.
وفي هذا السياق، استضاف البيت الأبيض في أبريل/نيسان 2026 الرئيس التنفيذي للشركة داريو أمودي، في اجتماع وُصف بأنه “مثمر وبناء”، جرى فيه بحث فرص التعاون في مجال الأمن السيبراني، والتعامل مع التحديات المتسارعة التي يفرضها تطور تقنيات الذكاء الاصطناعي.
من جهة أخرى، أثار نموذج ميثوس المتطور قلقا واسعا في الأوساط المالية، فقد حذر جيمي ديمون الرئيس التنفيذي لبنك “جيه بي مورجان شيس” من إمكانية توظيف هذه القدرات في تنفيذ هجمات سيبرانية معقدة تستهدف البنية التحتية المصرفية العالمية.
ودفعت هذه المخاوف الجهات التنظيمية الأمريكية، بما في ذلك وزارة الخزانة والاحتياطي الفيدرالي، إلى عقد اجتماعات طارئة لتقييم المخاطر المحتملة.
وفي ضوء ذلك، اتخذت أنثروبيك قرارا بتقييد الوصول إلى النموذج، وحجبه عن الاستخدام العام، مع إتاحته بشكل محدود ضمن إطار مشروع أمني مغلق يعرف باسم “غلاس سوينغ”، وبالتعاون مع حكومات وشركات تكنولوجيا كبرى.
وعلى خلفية رفضها إتاحة نموذج “ميثوس”، تعرضت أنثروبيك لانتقادات من مكتب الذكاء الاصطناعي الأوروبي التابع للاتحاد الأوروبي، فقد اعتبر أن هذا الرفض يقوّض قدرة المكتب على أداء دوره الرقابي في الحد من مخاطر الأمن السيبراني.
في المقابل، أثار منح الشركة حق الوصول إلى جهات أخرى، مثل “معهد سلامة الذكاء الاصطناعي في المملكة المتحدة” إضافة إلى الحكومة الأمريكية، انتقادات تتعلق بازدواجية المعايير في التعامل مع الشركاء الدوليين.