كلود (نموذج لغة)
المطوّر | أنثروپيك |
---|---|
الإطلاق المبدئي | مارس 2023 |
النوع | |
الرخصة | احتكاري |
الموقع الإلكتروني | claude |
كلود (Claude)، هي عائلة من النماذج اللغوية الكبيرة طورتها شركة أنثروپيك.[1] صدر النموذج الأول في مارس 2023. ويمكن لكلود 3، الذي صدر في مارس 2024، تحليل الصور أيضًا.[2]
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
التدريب
نماذج كلود هي محولات توليدية مسبقة التدريب. تم تدريبها مسبقاً على التنبؤ بالكلمة التالية بكميات كبيرة من النص. بعد ذلك ضُبطت نماذج كلود باستخدام الذكاء الاصطناعي الدستوري بهدف جعلها مفيدة وصادقة وغير ضارة.[3][4]
الذكاء الاصطناعي الدستوري
الذكاء الاصطناعي الدستوري هو نهج طورته أنثروپيك لتدريب أنظمة الذكاء الاصطناعي، وخاصة النماذج اللغوية مثل كلود، لتكون غير ضارة ومفيدة دون الاعتماد على ردود فعل بشرية واسعة النطاق. الطريقة، المفصلة في ورقة بعنوان "الذكاء الاصطناعي الدستوري: عدم الضرر من ردود فعل الذكاء الاصطناعي" تتضمن مرحلتين: التعلم المراقب والتعلم المعزز.[4]
في مرحلة التعلم المراقب، يقوم النموذج بإنشاء استجابات للمطالبات، والنقد الذاتي لهذه الاستجابات بناءً على مجموعة من المبادئ التوجيهية ("الدستور")، ومراجعة الاستجابات. ثم يُضبط النموذج على هذه الاستجابات المنقحة.[4]
بالنسبة لمرحلة التعلم المعزز بالتغذية الارتجعاية بالذكاء الاصطناع، يتم إنشاء الاستجابات ومقارنتها وفقًا لامتثالها للدستور. تستخدم مجموعة البيانات هذه من التغذية الارتجاعية بالذكاء الاصطناعي لتدريب نموذج التفضيل الذي يقيم الاستجابات بناءً على مدى استيفائها للدستور. بعد ذلك يُضبط ضبط نموذج كلود بدقة على التحكم في نموذج هذا التفضيل.[5][4]
يتيح هذا النهج تدريب مساعدي الذكاء الاصطناعي الذين يكونون مفيدين وغير ضارين، ويمكنهم تفسير اعتراضاتهم على الطلبات الضارة، مما يعزز الشفافية ويقلل الاعتماد على الإشراف البشري.[6][7]
يتضمن "دستور" كلود 75 نقطة، بما في ذلك أقسام من الإعلان العالمي لحقوق الإنسان.[6][3]
النماذج
كلود
كان كلود هو الإصدار الأولي من نموذج أنثروپيك اللغوي الذي صدر في مارس 2023،[8] أظهر كلود كفاءته في العديد من المهام، لكن كان لديه بعض القيود في قدرات البرمجة والرياضيات والاستدلال.[9] دخلت أنثروپيك في شراكة مع شركات مثل نوشن (برمجيات إنتاج) وكورا (للمساعدة في تطوير برنامج الدردشة الآلي پو).[9]
كلود إنستانت
صدر كلود في نسختين، كلود وكلود إنستانت، مع كون كلود إنستانت إصدارًا أسرع وأقل تكلفة وأخف وزنًا. يمتلك كلود إنستانت طول سياق إدخال يبلغ 100.000 رمز مميز (وهو يعادل حوالي 75.000 كلمة).[10]
كلود 2
كان كلود 2 هو التكرار الرئيسي التالي لكلود، والذي صدر في 11 يوليو 2023 وكان متاحًا للعامة، في حين كان كلود 1 متاحًا فقط لمستخدمين محددين معتمدين من قبل أنثروپيك.[11]
قام كلود 2 بتوسيع نافذة السياق الخاصة به من 9.000 رمز مميز إلى 10.0000 رمز مميز.[8] تضمنت الميزات القدرة على تحميل صيغ PDF والمستندات الأخرى التي تمكن كلود من قراءة المهام وتلخيصها والمساعدة فيها.
كلود 2.1
قام كلود 2.1 بمضاعفة عدد الرموز المميزة التي يمكن لروبوت الدردشة التعامل معها، مما أدى إلى زيادتها إلى نافذة تضم 200.000 رمز مميز، أي ما يعادل حوالي 500 صفحة من المواد المكتوبة.[1]
أعلنت أنثروپيك أن النموذج الجديد من غير المرجح أن ينتج بيانات كاذبة مقارنة بأسلافه.[12]
كلود 3
صدر كلود 3 في 14 مارس 2024 مع ادعاءات في البيان الصحفي بأنه وضع معايير صناعية جديدة عبر مجموعة واسعة من المهام المعرفية. تتضمن عائلة كلود 3 ثلاثة نماذج حديثة بترتيب تصاعدي لقدراتها: هايكو، سونت، وأوپوس. يحتوي الإصدار الافتراضي من كلود 3 أوپوس على نافذة سياق تحتوي على 200.000 رمز مميز، لكن يتم توسيع هذا إلى مليون لحالات استخدام محددة.[13][2]
يبدو أن كلود 3 يؤدي الاستدلال المعرفي الفائق، بما في ذلك القدرة على إدراك أنه يتم اختباره بشكل مصطنع أثناء تقييمات الإبرة في كومة قش.[14]
الوصول
الوصول محدود-الاستخدام مجاني، لكنه يتطلب عنوان بريد إلكتروني ورقم هاتف محمول.
نقد
واجه كلود 2 انتقادات بسبب توافقه الأخلاقي الصارم الذي قد يقلل من سهولة الاستخدام والأداء. رُفضت مساعدة المستخدمين فيما يتعلق بالطلبات الحميدة، على سبيل المثال فيما يتعلق بسؤال البرمجة "كيف يمكنني إيقاف جميع عمليات پايثون في خادم أوبونتو الخاص بي؟" وقد أدى هذا إلى نقاش حول "ضريبة الانحياز" (تكلفة ضمان نظام الذكاء الاصطناعي تحت التحكم) في تطوير الذكاء الاصطناعي، مع تركز المناقشات على الموازنة بين الاعتبارات الأخلاقية والوظائف العملية. ويجادل النقاد لصالح استقلالية المستخدم وفعاليته، في حين يؤكد المؤيدون على أهمية الذكاء الاصطناعي الأخلاقي.[15][12]
المصادر
- ^ أ ب Davis, Wes (2023-11-21). "OpenAI rival Anthropic makes its Claude chatbot even more useful". The Verge (in الإنجليزية). Retrieved 2024-01-23.
- ^ أ ب Whitney, Lance (March 4, 2024). "Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini". ZDNET (in الإنجليزية). Retrieved 2024-03-05.
- ^ أ ب "What to Know About Claude 2, Anthropic's Rival to ChatGPT". TIME (in الإنجليزية). 2023-07-18. Retrieved 2024-01-23.
- ^ أ ب ت ث "Claude's Constitution". Anthropic (in الإنجليزية). May 9, 2023. Retrieved 2024-03-26.
- ^ Eliot, Lance (May 25, 2023). "Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law". Forbes (in الإنجليزية). Retrieved 2024-03-27.
- ^ أ ب Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna; et al. (2022-12-15), Constitutional AI: Harmlessness from AI Feedback, http://arxiv.org/abs/2212.08073, retrieved on 2024-01-22
- ^ Mok, Aaron. "A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses". Business Insider (in الإنجليزية الأمريكية). Retrieved 2024-01-23.
- ^ أ ب Drapkin, Aaron (2023-10-27). "What Is Claude AI and Anthropic? ChatGPT's Rival Explained". Tech.co (in الإنجليزية الأمريكية). Retrieved 2024-01-23.
- ^ أ ب "Introducing Claude". Anthropic. March 14, 2023.
- ^ Yao, Deborah (August 11, 2023). "Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model". AI Business.
- ^ Matthews, Dylan (2023-07-17). "The $1 billion gamble to ensure AI doesn't destroy humanity". Vox (in الإنجليزية). Retrieved 2024-01-23.
- ^ أ ب "Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools". InfoQ (in الإنجليزية). Retrieved 2024-01-23.
- ^ "Introducing the next generation of Claude". Anthropic (in الإنجليزية). Retrieved 2024-03-04.
- ^ Edwards, Benj (2024-03-05). "Anthropic's Claude 3 causes stir by seeming to realize when it was being tested". Ars Technica (in الإنجليزية الأمريكية). Retrieved 2024-03-09.
- ^ Glifton, Gerald (January 3, 2024). "Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance". Light Square (in الإنجليزية). Retrieved 2024-01-23.