مراجعة الأدبيات المتعلقة بتطوير الذكاء الاصطناعي للدفاع عن حقوق الحيوان

ملخص تنفيذي

يشهد مجال الذكاء الاصطناعي (AI) والتعلم الآلي (ML) تطورًا سريعًا، مما يوفر فرصًا وتحديات لمنظمات مثل Open Paws التي تهدف إلى الاستفادة من هذه التقنيات في مجال الدفاع عن الحيوانات.

تستكشف هذه المراجعة للأدبيات أحدث الأبحاث والتقنيات التي يمكن تسخيرها لتطوير نظام ذكاء اصطناعي يتماشى بشكل فريد مع النهوض بمصالح الحيوانات.

النتائج والتوصيات الرئيسية:

  • يعد التنظيم الفعال للبيانات، بما في ذلك مجموعات البيانات متعددة اللغات وتقنيات تصحيح الأخطاء اللغوية، أمرًا بالغ الأهمية لتدريب أنظمة الذكاء الاصطناعي الخالية من التحيزات القائمة على التحيزات النوعية والمتماشية مع السياقات الثقافية واللغوية المتنوعة.

  • يمكن أن تعزز أساليب التدريب المسبق الاستراتيجية، مثل ضبط التعليمات والتدريب القائم على الرسم البياني، قدرات الذكاء الاصطناعي على التفكير والمعرفة الخاصة بالمجال.

  • تبشّر بنيات الأنظمة مثل مزيج الخبراء (MoE) والتصاميم المعرفية المعيارية بإنشاء وكلاء ذكاء اصطناعي متخصصين وقابلين للتكيف وقادرين على اتخاذ القرارات وتنفيذ المهام بشكل مستقل.

  • توفر نماذج الضبط الدقيق للنماذج من التغذية الراجعة البشرية والذكاء الاصطناعي، إلى جانب أساليب الهندسة الفورية المتقدمة وأساليب التسلسل الفوري، مسارات للتحسين المستمر لأداء النظام والمواءمة الأخلاقية.

  • يمكن أن تشمل الاتجاهات المستقبلية متابعة التطورات في البنى متعددة الوسائط والإدراكية واللامركزية للذكاء الاصطناعي، وتطبيق التقنيات الناشئة مثل واجهات الدماغ والحاسوب وأجهزة الارتجاع العصبي والواقع الافتراضي، لتعزيز فعالية جهود الدفاع عن الحيوانات وانتشارها بطرق مبتكرة ومسؤولة أخلاقياً.

الطريقة

وقد استقينا موادنا من مجموعة من الأوراق البحثية المنشورة مؤخرًا، والتي تعود في المقام الأول إلى الأشهر الثلاثة الماضية، على الرغم من أن بعض الأعمال التأسيسية تعود إلى فترة أبعد من ذلك.

تضمنت عملية الاختيار التي قمنا بها متابعة موجز RSS للعديد من المجلات التي تنشر أوراقًا بحثية في مجال الذكاء الاصطناعي وانتقاء تلك التي تتوافق مع مهمتنا، مما أدى إلى الحصول على حوالي 1000 ملخص.

بدأنا استكشافنا بهذه الملخصات، ثم امتد إلى القراءة المتعمقة والانتقائية. وتخلصنا من أي دراسات تبين لنا أنها غير ذات صلة عند إجراء المزيد من الاستقصاء.

لقد نظمنا هذه المراجعة حسب قابلية التطبيق - بدءًا من الأبحاث الفورية القابلة للتنفيذ وانتهاءً بالتوجهات المستقبلية التي قد تصبح ذات صلة مع نمو Open Paws وتحسن تكنولوجيا الذكاء الاصطناعي.

وقد تم اختصار جوهر كل ورقة بحثية في مصطلحات مبسطة ومرتبطة مباشرةً بروابط تشعبية، مما يسهل إجراء المزيد من التحقيقات مع توفير لمحة عن أهميتها في تعزيز مهمتنا.

تبدأ المراجعة بإنشاء قاعدة البيانات وإدارتها، وتمر عبر التدريب المسبق على الذكاء الاصطناعي في مجال الذكاء الاصطناعي (سواء من البشر أو الذكاء الاصطناعي)، وتتعمق في تعقيدات سلاسل التوجيه وبنى الوكلاء، وتبلغ ذروتها في قدرات الذكاء الاصطناعي المحتملة التي تبشر بمستقبل الذكاء الاصطناعي المفتوح الكفوف.

إدارة قواعد البيانات وتنظيمها

إن الإدارة الفعالة والمتطورة للبيانات هي حجر الزاوية في برنامج Open Paws الذي يعتمد على الذكاء الاصطناعي في الدفاع عن الحيوانات.

من خلال تسخير الأتمتة المتقدمة، نهدف إلى تحسين قاعدة بياناتنا من خلال أطر قوية للمعالجة المسبقة والتطبيع وتحسين الجودة.

  • وجدت دراسة استقصائية عن إدارة البيانات الخاصة بـ LLMs أنه في حالة تدريب LLM على أكثر من حقبة واحدة، يجب إجراء تدريب إضافي على قسم فرعي صغير من البيانات عالية الجودة. يوصي المؤلفون بالحصول على درجة جودة لتصفية البيانات داخل قاعدة البيانات الخاصة بك وإلغاء التكرار تلقائيًا باستخدام البحث عن التشابه الدلالي (أي إزالة الإدخالات المتشابهة دلاليًا للغاية). كما وجدوا أن وجود مجموعة متنوعة من المجالات والتعليمات أمر ضروري وأن التعليمات الأكثر تعقيدًا تؤدي إلى أداء أفضل في المراحل النهائية.

  • يمكن استخدام SemDeDup لإيجاد وإزالة الازدواجية الدلالية في مجموعات التدريب الخاصة بـ LLMs.

  • يمكننا استخدام مصدر المهام للمعالجة المسبقة للبيانات وتطبيع مجموعات بيانات HuggingFace، وتنسيقها تلقائيًا بشكل متسق.

تُعد الاستفادة من الأتمتة في إدارة قاعدة بيانات Open Paws مفيدة في تحويل مجموعات البيانات الضخمة إلى معلومات قابلة للتنفيذ.

استخراج البيانات وهيكلتها

من خلال أدوات الذكاء الاصطناعي، ترى Open Paws طريقًا لتحويل البيانات غير المهيكلة إلى رؤى قيمة لاستراتيجيات المناصرة. ومع ذلك، يظل ضمان دقة وحيادية الاستخراج الآلي للبيانات أمرًا بالغ الأهمية.

  • Jellyfish، وهو نموذج LLM مفتوح المصدر مصمم خصيصًا للمعالجة المسبقة للبيانات، ويمكن استخدامه أيضًا في مهام البيانات الأخرى مثل مطابقة المخطط ومطابقة الكيانات. إنه نموذج صغير يمكن تشغيله على وحدة معالجة رسومية واحدة بمعلمات 13B ويمكن استخدامه لأتمتة الكثير من عمليات استخراج وهيكلة البيانات التي نحتاجها.

  • Bonito هو نموذج مفتوح المصدر لتحويل أي بيانات غير منظمة إلى بيانات تدريب خاصة بمهمة محددة لضبط التعليمات.

  • يمكن ل LLMiner أيضًا استخراج أزواج الأسئلة والأجوبة من المستندات غير المنظمة من خلال سلسلة التفكير المنطقي.

  • يعرض هذا المقال في نحو علوم البيانات إطار عمل آلي لتحويل أي نص إلى رسم بياني تلقائيًا.

  • يمكن استخدام MANTRA لاستخراج الاتجاهات من بيانات وسائل التواصل الاجتماعي غير المنظمة وتحليلها.

  • يمكن استخدام AutoIE لاستخراج البيانات من ملفات PDF العلمية

  • يمكننا استخدام نهج الهرم المعرفي لاستخراج المعرفة عالية المستوى من المعرفة منخفضة المستوى الموجودة في الرسوم البيانية.

إن احتمال أتمتة تحويل ضجة وسائل التواصل الاجتماعي والنصوص العلمية الكثيفة إلى معرفة قابلة للهضم وقابلة للتنفيذ أمر مثير بالنسبة لشركة Open Paws

ومع ذلك، فإن اعتماد هذه الأدوات القوية يتطلب الصرامة في مراقبة الجودة والقدرة على التكيف، وضمان أن تكون البيانات التي نستخرجها موثوقة وذات صلة بالموضوع، مما يعزز جهود المناصرة التي لا تتفاعل مع قضيتنا فحسب، بل تتوافق مع قضيتنا بشكل عميق.

البيانات التركيبية

البيانات الاصطناعية هي أداة ذات إمكانات كبيرة ومحفوفة بالمخاطر لتطوير الذكاء الاصطناعي.

عندما يتم استخدامها بحكمة، فإنها تعزز التعميم وتثري محاكاة المحادثة؛ ومع ذلك، يمكن أن تقوض استقرار النموذج والوظائف الإدراكية مثل التفكير إذا أسيء إدارتها.

لا بد من المزج الحكيم بين البيانات الاصطناعية والأصلية.

  • توضح الورقة البحثية "لعنة التكرار " كيف يمكن للبيانات التركيبية أن تؤدي إلى انهيار النموذج، مما يجعل النماذج تنسى البيانات من تدريبها المسبق. وهذا يؤكد الحاجة إلى توخي الحذر الشديد عند استخدام البيانات التركيبية.

  • أظهر الوعد الكاذب بتقليد الن ماذج الصغيرة المقلدة أن تدريب النماذج الصغيرة على بيانات اصطناعية من نماذج كبيرة يزيد من الهلوسة ويقلل من القدرات المنطقية والاستدلالية. وهذا يؤكد على أهمية التدريب المسبق على بيانات عالية الجودة، وليس الضبط الدقيق على بيانات منخفضة الجودة.

  • تمكّن محاكي المستخدم Socratic من تحسين الأداء على نماذج LLMs الأساسية مع البيانات الاصطناعية من خلال نمذجة التدريب على محادثات حقيقية بين الإنسان والذكاء الاصطناعي ثم استخدام هذا النموذج المعدّل لإنتاج مخرجات تصبح بعد ذلك مدخلات لتدريب نموذج جديد يسمى PlatoLM. هذا يدل على أنه عند استخدام البيانات الاصطناعية يجب أن تكون البيانات المولدة من قبل الإنسان نموذجًا أقرب ما يمكن لتكون فعالة.

  • أظهر التقطير المستحيل أنه باستخدام التقطير الذاتي بين الطالب والمعلم LM، يمكنك توليد مجموعة بيانات متنوعة للغاية وعالية الجودة دون ملاحظات بشرية. عندما تم تدريب LM على هذه المخرجات حققت نتائج أفضل بكثير على عدد أقل بكثير من المعلمات وعممت بشكل أفضل من LMs المدربة على بيانات التغذية الراجعة البشرية. هذا يدل على أن استخلاص البيانات التركيبية إلى المعرفة الأساسية ينتج نتائج أفضل بكثير من استخدام البيانات التركيبية "الخام" (أي المحادثات المصدرة بنظام مثل ChatGPT)

  • يوضح جينيكسر أن استخدام النماذج متعددة الوسائط لتوليد بيانات ضبط التعليمات يمكن أن يحسن الأداء في مهام التعليق على الصور ومهام ضمان الجودة البصرية. وهذا يوضح أن البيانات التركيبية مفيدة للغاية في المهام متعددة الوسائط.

بالنسبة إلى Open Paws، يمكن أن تكون البيانات التركيبية مفيدة أو ضارة اعتمادًا على كيفية استخدامها. يجب أن تستلزم استراتيجيتنا نهجًا متوازنًا ومتعدد الوسائط ومقطرًا وشبيهًا بالإنسان في تجميع البيانات.

اللغة واللغويات

من خلال دمج 1٪ فقط من البيانات المصممة خصيصًا وعالية الجودة بلغات إضافية، يمكن للذكاء الاصطناعي إتقان لغات جديدة بفعالية.

يجب أن نعطي الأولوية للمحتوى الأصيل الذي يقدمه القائمون على الحملات المحلية وأن نحسّن عملية تصفية البيانات لدينا، مع اتباع نهج يقظ تجاه القضاء على التحيز ضد الأنواع.

من الضروري بذل جهود متضافرة لاحتضان التنوع اللغوي، خاصة في ضمان عدم تدريب نظامنا على المواد ومصادر المعلومات باللغة الإنجليزية فقط أو بشكل مركزي.

سيكون ذلك أمراً حيوياً لكي تظل نماذج الذكاء الاصطناعي لدينا حساسة ثقافياً ولغوياً.

  • للغة تأثير أعمق بكثير على إدراكنا للعالم مما نعتقده عادة، ولا يمكن إدراك الكثير من ذلك دون فهم الأشخاص الذين يتحدثون تلك اللغة في الأصل. فعلى سبيل المثال، أظهرت هذه الورقة البحثية أن الناطقين باللغتين العربية والإنجليزية ينظرون إلى الزمن على أنه يتحرك في اتجاهات مختلفة، حيث يراه الناطقون باللغة العربية على أنه يتحرك من اليمين إلى اليسار بينما يراه الناطقون باللغة الإنجليزية على أنه يتحرك من اليسار إلى اليمين. إذا كنت ستترجم المفاهيم المتعلقة بكيفية تخطيط الزمن على المكان باستخدام الترجمات الآلية كلمة بكلمة فقط فستفقد هذا الفارق الدقيق، وهو ما يوضح مثالاً صغيراً على سبب ضرورة استخدام نصوص مكتوبة من قبل متحدثين أصليين لجعل قاعدة بياناتنا متعددة اللغات، وعدم الاعتماد حصرياً على الترجمات الآلية.

  • هناك فرضية تدعى النسبية اللغوية تشير إلى أن اللغة تؤثر على نظرة المتحدثين بها وإدراكهم للعالم وتشكلها، وفي حين أن أقوى نسخة من هذا الادعاء (أن اللغة تحدد الفكر) هي على الأرجح خاطئة، إلا أن هناك أدلة تجريبية قوية تدعم النسخة الأضعف من هذا الادعاء (أن اللغة تؤثر على الفكر). يبدو أن هذا الأمر يعمم على الذكاء الاصطناعي والبشر على حد سواء، حيث أن الذكاء الاصطناعي غالبًا ما يستجيب بشكل مختلف لنفس المطالبة بالضبط عند ترجمتها إلى لغة مختلفة.

  • وما يثير قلقنا بشكل خاص هو النتيجة التي توصلنا إليها من ورقة "حاجز اللغة" التي تفيد بأن برامج تعليم اللغات ذات الموارد المنخفضة (تلك التي تظهر بشكل غير متكرر في بيانات ما قبل التدريب) تكون أكثر عرضة لإنتاج استجابات غير آمنة أو غير ذات صلة بالمطالب الخبيثة في اللغات ذات الموارد المنخفضة (تلك التي تظهر بشكل غير متكرر في بيانات ما قبل التدريب). يبدو أن هذا التأثير "مشفر بشكل ثابت" في LLM أثناء التدريب المسبق ولا يمكن التراجع عنه لاحقًا من خلال ضبط التعليمات. وهذا يعني أنه إذا لم يكن لدينا بيانات كافية في لغة ما أثناء التدريب المسبق، فمن غير المرجح أن نتمكن من إحراز تقدم كبير في إزالة التحيز النوعي في تلك اللغة أثناء الضبط الدقيق، حتى لو قمنا بضبط تلك اللغة.

  • لحسن الحظ، لا نحتاج إلى مجموعات بيانات ضخمة باللغات ناقصة التمثيل لإحداث تأثير كبير أثناء التدريب المسبق. وجدت LLaMA Beyond English أن النماذج يمكن أن تحقق أفضل نقل في المعرفة وجودة الاستجابة باللغات ناقصة التمثيل بأقل من 1% من بيانات ما قبل التدريب. لذا، حتى لو كانت الغالبية العظمى من بياناتنا باللغة الإنجليزية، فإن وجود كمية صغيرة على الأقل باللغات الأخرى سيكون كافيًا لتحقيق قفزات هائلة في الأداء في المهام النهائية لتلك اللغات الممثلة تمثيلاً ناقصًا - ومع ذلك، ستتخذ Open Paws خطوات إضافية للتأكد من أن مجموعة بياناتنا متاحة للعديد من المجتمعات اللغوية الأخرى وعلى دراية بتجاربها ووجهات نظرها. من المهم ألا نكون قادرين فقط على فهم أو توليد نصوص بلغات أخرى، بل أن نبقى حساسين لسياقاتها الثقافية.

  • وثمة اعتبار إضافي هو أن مناهج LLMs قد تواجه صعوبة في التعامل مع المجموعات اللغوية مثل اللغة الصينية، مقارنة باللغات الأخرى التي تستخدم نصوصاً أو حروفاً هجائية مكتوبة بالحروف اللاتينية. وقد واجهت الآليات اللغوية الخالية من الرموز صعوبة في تخطيط الرموز وتمثيل سلاسل من الأحرف الصينية كرموز. وقد ظهر ذلك في ورقة LLMs الخالية من الرموز حيث تميل نماذج اللغة القائمة على الرموز إلى الفشل في اختبارات التهجئة الصينية، في حين أن نماذج LLMs الخالية من الرموز التي تستخدم الأحرف أو البايتات بدلاً من الرموز كان أداؤها أفضل بكثير.

  • أحد التفسيرات المحتملة لذلك هو تنوع الأحرف الصينية مقارنةً باللغة الإنجليزية. تحتوي اللغة الإنجليزية على 26 حرفًا بينما تحتوي اللغة الصينية على أكثر من 50,000 حرف في الاستخدام الشائع، ويتزايد عدد الرموز الممكنة بشكل كبير كلما زاد عدد الأحرف لكل رمز (أي إذا كان لديك رمز طويل مكون من 3 أحرف، فهناك 17,576 رمزًا ممكنًا في اللغة الإنجليزية و125,000,000,000,000,000 رمز ممكن في اللغة الصينية)

  • كما أن هناك العديد من الاختلافات الثقافية واللغوية بين مختلف المتغيرات اللغوية التي تستخدم الأحرف الصينية (على سبيل المثال، تايوان والصين لديهما سياقات ثقافية ولغوية مختلفة للغاية بينما تستخدم كل من الماندرين والكانتونية نفس الأحرف على الرغم من وجود اختلافات عديدة أخرى).

  • ويُعدّ نموذج تايوان LLM مثالاً على نموذج مفتوح المصدر ومجموعة بيانات تم إنشاؤها لمعالجة الاختلافات الثقافية واللغوية بين تايوان والصين. وبوجه عام، يمكننا أن نتعلم من المدافعين العالميين والمحليين كيفية التعامل مع مجتمعاتهم اللغوية على أفضل وجه - حيث تعاني أساليب إدارة اللغات المحلية الشائعة من الحساسية الثقافية والوعي الثقافي، يجب أن نتطلع إلى تلك المجتمعات اللغوية للحصول على إجابات حول كيفية تمثيل لغتهم على أفضل وجه.

يجب أن نضمن جمع مجموعة بيانات متنوعة ومتعددة اللغات من أجل التدريب المسبق وأن يشارك متطوعون محليون من مناطق وثقافات متنوعة في جمع الملاحظات.

يجب أن نفكر أيضًا في تدريب نموذج خاص باللغة الصينية يعمل على البايتات أو الأحرف، ونموذج منفصل متعدد اللغات يعمل على الرموز للغات الأخرى.

طرائق متعددة

تُعد القدرات متعددة الوسائط حجر الزاوية لتوسيع نطاق وأهمية مساعي Open Paws للذكاء الاصطناعي.

ويتوقف الاختيار بين نشر شبكة متعددة الوسائط بطبيعتها أو الدمج التدريجي لوحدات أو أدوات أو مشفرات حسية متعددة داخل أو فوق شبكة متعددة الوسائط على مجموعة مواردنا ومسار الذكاء الاصطناعي مفتوح المصدر.

ومع ذلك، فإن التنظيم الاستباقي لمجموعة بيانات متعددة الوسائط يجعلنا قادرين على التكيف والازدهار في ظل التحولات التكنولوجية. إن تعدد الوسائط ليس مجرد خيار، بل هو أمر ضروري.

  • تُظهر ورقة Modality Plug-and-Play أنه يمكن إضافة مشفرات أحادية النمط إلى مجموعة مرنة من كتل LLM، والتي تحافظ على الدقة عبر الطرائق مع تقليل تكاليف التدريب بشكل كبير. وقد يكون هذا خياراً جيداً إذا جمعنا تمويلاً أقل من المتوقع و/أو إذا كانت طرائق التشفير أحادية النمط أفضل بكثير من طرائق التشفير أحادية النمط عند بدء التدريب.

  • يعمل DreamLLLM على توسيع نطاق التعلُّم متعدد الوسائط من خلال التعلُّم مباشرةً من البيانات الأولية لكل من النصوص والصور، متجاوزًا الحاجة إلى تمثيلات وسيطة مثل تضمينات CLIP. يمكّن هذا النهج المتكامل من توليد وفهم المحتوى متعدد الوسائط، بما في ذلك الصور والنصوص، في شكلها الخام.

  • يُضيف OneLLLM 8 طرائق إلى طرائق LLM في آنٍ واحد باستخدام مُشفِّر متعدد الوسائط، وهو ما يمكن أن يضيف طرائق متعددة بكفاءة أكبر مقارنةً باستخدام مُشفِّر مختلف لكل طريقة.

  • يعمل ByteFormer على مستوى البايت بدلاً من الرموز للسماح بجميع الطرائق الممكنة. بدلاً من التنبؤ بالرمز التالي، فإنه يتنبأ بالبايتات التالية، مما يزيل الحاجة إلى فك تشفير الملف في وقت الاستدلال.

  • تقدم ImageBind-LLM طريقة ضبط التعليمات متعددة الوسائط التي تدمج بكفاءة بين طرائق متعددة مثل الصوت والسحب النقطية ثلاثية الأبعاد والفيديو، بما يتجاوز الصور والنصوص فقط. وخلافًا للمقاربات الحالية التي تركز على ضبط التعليمات بين الصور والنصوص، تستفيد ImageBind-LLM من شبكة ربط فريدة من نوعها وآلية بوابات خالية من الانتباه لمحاذاة وإدخال الميزات المرئية وغيرها من الطرائق مباشرةً في رموز كلمات نموذج LLaMA، مما يمكّنها من فهم وتوليد استجابات لغوية لمجموعة واسعة من المدخلات متعددة الطرائق.

وإدراكًا للطبيعة المتعددة الأوجه لقضايا حقوق الحيوان، ينبغي على منظمة الكفوف المفتوحة اعتماد نهج متعدد الوسائط.

من خلال وضع أساس لجمع البيانات متعددة الوسائط من خلال النص والصورة والصوت، بالإضافة إلى أنواع البيانات الجديدة والناشئة، يمكننا ضمان أن تظل نماذجنا مواكبة للتطورات التكنولوجية الجديدة.

ما قبل التدريب

يجب أن يشتمل التدريب المسبق للذكاء الاصطناعي في مجال الدفاع عن الحيوانات على مجموعات بيانات ذات مهام منطقية مركزة ومهام محددة الأدوار، وربما يتم تمثيلها من خلال الرسوم البيانية لزيادة الدقة الوقائعية.

يمكن أن تكون بنية مزيج الخبراء (أو البنى المماثلة المستوحاة منها مع إمكانية تدريب الخبراء غير المتزامن الخاص بمجال معين)، هي المفتاح لمعالجة تحديات الدعوة المتنوعة.

توفر الدراسات الحالية إرشادات حول معلمات التدريب المثلى - مثل: معايير التدريب، ومعدلات التعلم، وحجم البيانات، وتباعد البيانات - مما يجعلنا نتوقع مستوى معينًا من فقدان البيانات مع توقع مكاسب الأداء في المهام الأساسية.

  • تعمل نماذج اللغة الخبيرة مع اكتشاف المجال غير الخاضع للرقابة على تجميع المستندات ذات الصلة وتدريب نماذج اللغة الخبيرة لكل مجموعة ودمجها للاستدلال. يعمل هذا بشكل مشابه لنموذج MoE ولكن لديه ميزة إضافية تتمثل في إمكانية تدريبه بشكل غير متزامن.

  • أظهرت ورقة " كيف تعيد تدفئة نموذجك " أنه على الرغم من أن إعادة تدفئة النماذج في البداية تزيد من الخسارة على النماذج ذات المستوى المنخفض، إلا أنها على المدى الطويل تحسن الأداء على المدى البعيد، وتتفوق على النماذج المدربة من الصفر - حتى بالنسبة لمجموعة بيانات كبيرة من المصب. كما أظهرت أيضًا أن زيادة معدل التعلم أثناء التدريب المسبق المستمر هو الأكثر فعالية وأن التدريب المسبق المستمر يمكن أن يكون فعالاً للغاية بجزء بسيط من التكلفة مقارنةً بالتدريب المسبق لنموذج من الصفر.

  • أظهرت ورقة " أعطنا الحقائق " أنه يمكن استخدام مشفرات المعرفة ومهام التدريب المسبق الموجهة بالمعرفة لزيادة فهم الرسم البياني في مهام ما قبل التدريب، وأن هذا يؤدي إلى انخفاض الهلوسة في المهام النهائية.

  • فهم التعلم داخل السياق من خلال بيانات ما قبل التدريب الداعمة أظهرت بيانات ما قبل التدريب الداعمة للنموذج أن بيانات ما قبل التدريب الداعمة للنموذج تميل إلى احتوائها على نسبة أعلى من الرموز النادرة ذات الذيل الطويل، وتقدم أمثلة أكثر صعوبة للنموذج، مما قد يشجع النموذج على التعلم من سياقات متنوعة ومعقدة.

  • تدعم عملية اكتشاف المهارات الكامنة للاستدلال التسلسلي بشكل غير مباشر عملية التدريب المسبق من خلال تحديد مهارات الاستدلال الكامنة من البيانات غير الخاضعة للإشراف والاستفادة منها. يتيح ذلك إنشاء أمثلة تدريب أكثر تركيزًا وفعالية، مما يعزز مرحلة ما قبل التدريب للنموذج بالمهارات التي تحسن من قدراته على التفكير

  • يركز LocMoE على تقليل النفقات العامة للتدريب من خلال تحسين استراتيجيات توجيه الرمز المميز واستراتيجيات الاتصال. يقدم البرنامج استراتيجية توجيه جديدة تعزز توازن الأحمال والمكانية، وبالتالي تقليل نفقات الاتصال الزائدة وتحسين أداء تدريب النموذج. يُظهر LocMoE انخفاضًا كبيرًا في وقت التدريب مع الحفاظ على الدقة، مما يوفر حلاً عمليًا لاختناقات الأداء في نماذج MoE الحالية.

  • وجدت نماذج اللغة المقيدة بالبيانات المقيدة بال بيانات أن 4 حقب زمنية هي "النقطة المثالية" لإعادة التدريب على نفس البيانات.

  • تقدم قوانين التحجيم للنماذج التأسيسية المتفرقة قانون تحجيم جديد يربط بين التباعد وحجم النموذج وبيانات التدريب، ويحدد مستوى "التباعد الأمثل" الذي يرفع الأداء إلى أقصى حد لحجم نموذج معين وكمية بيانات معينة. يمكن لهذا البحث توجيه التدريب والنشر الفعال للنماذج الكبيرة من خلال الاستفادة من التباعد لتحقيق التوازن بين التكاليف الحسابية وأداء النموذج.

  • إعادة التفكير في ضبط معدل التعلم في عصر النماذج اللغوية الكبيرة يقدم LRBench++، وهي أداة قياس مرجعية لتقييم وتسهيل سياسات معدل التعلم لكل من الشبكات العصبية التقليدية ونماذج اللغات الكبيرة.

  • يبحث الحجم الحرج للبيانات من منظور الت ذوق في الحجم الحرج للبيانات حتى تتحول النماذج اللغوية من الحفظ إلى التعميم، وهي ظاهرة يُطلق عليها "التذوق". تقدم الدراسة تكوينًا للتذوق يُعيد إنتاج التذوق في النماذج اللغوية البسيطة من خلال عمليات تهيئة محددة وتعديلات تضاؤل الوزن. وتحدد الدراسة حجم مجموعة البيانات الحرجة حيث تبدأ النماذج في التعميم إلى ما بعد الحفظ. ويزداد هذا الحجم مع زيادة حجم النموذج، مما يشير إلى أن النماذج الأكبر حجمًا تحتاج إلى المزيد من البيانات للتعلم والتعميم الفعال.

  • ReLoRA هي طريقة تطبق تحديثات منخفضة الرتبة لتدريب الشبكات العصبية عالية الرتبة بكفاءة، خاصةً المحولات. تُظهر الورقة البحثية أن ReLoRA يمكن أن تحقق أداءً مماثلاً لأساليب التدريب التقليدية ولكن بكفاءة متزايدة، خاصةً مع نمو حجم النموذج.

يتوقف التطوير الاستراتيجي للذكاء الاصطناعي داخل Open Paws على نظام تدريب مسبق يمكّن النموذج من استيعاب قضايا المناصرة المعقدة.

من خلال تضمين مجموعات البيانات المنسوجة مع أمثلة صريحة وموجهة نحو المهام، وربما هيكلتها على شكل رسوم بيانية، فإننا نطور ذكاءً اصطناعيًا مزودًا بدقة واقعية قوية، وهو جزء لا يتجزأ من مهام الدعوة المعقدة.

باستخدام بنية على غرار وزارة التربية والتعليم، يمكننا أن نسمح بتنمية المهارات المتخصصة، وتعزيز الخبرة في المجال الضروري لمناصرة الحيوانات المصممة خصيصاً.

من خلال البيانات التجريبية حول حلقات التدريب ومعدلات التعلم وهياكل البيانات، يمكننا نحت ذكاء اصطناعي لا يتفوق من الناحية التقنية فحسب، بل يتوافق بشكل عميق مع المهام الأخلاقية لمهمتنا.

التقليم والضغط والمزج والدمج والتشذيب

يعتبر التقليم فعالاً لضغط النماذج ولكنه ليس وسيلة لإزالة المفاهيم بشكل دائم، حيث يمكن إعادة الحصول على المعلومات المشذبة.

يجب أن تستند القرارات بشأن التخلص من الخلايا العصبية إلى تأثيرها الجماعي على المخرجات.

يمكن تحسين أداء النموذج من خلال مزج أو دمج النماذج الأصغر حجمًا.

بالإضافة إلى ذلك، يساعد تدريب نموذج مدمج ثم نقل التغييرات المستفادة إلى نموذج أكبر في تقليل التكاليف المرتبطة بالتدريب على نطاق واسع.

يقترح هذا نهجًا جديدًا: تنقيح مجموعة من النماذج الأصغر حجمًا الخاصة بالمجال ودمج خبراتها في أنظمة أكثر شمولاً، وبالتالي إنشاء نموذج واسع النطاق وفعال يعكس استثمارات التدريب على نطاق أصغر.

  • تقوم LoRA بتجميد أوزان النموذج المدرّب مسبقًا وتحقن مصفوفات تحلل الرتب القابلة للتدريب في كل طبقة من بنية المحول، مما يقلل بشكل كبير من عدد المعلمات القابلة للتدريب للمهام النهائية. بالمقارنة مع GPT-3 175B المضبوطة بدقة مع آدم، يمكن لـ LoRA تقليل عدد المعلمات القابلة للتدريب بمقدار 10,000 مرة ومتطلبات ذاكرة وحدة معالجة الرسومات بمقدار 3 مرات.

  • تُظهر النماذج اللغوية الكبيرة التي تعيد تعلم المفاهيم التي تمت إزالتها أن النماذج يمكن أن تستعيد أداءها بسرعة بعد التقليم من خلال نقل المفاهيم المتقدمة إلى طبقات سابقة وإعادة تخصيص المفاهيم المشذبة إلى خلايا عصبية مهيأة ذات دلالات مشابهة.

  • يقدم استخدام نظرية الألعاب التعاونية لتشذيب الشبكات العصبية طريقة تسمى التقليم بمساعدة نظرية الألعاب (GTAP)، والتي تقلل من حجم الشبكة العصبية مع الحفاظ على دقتها التنبؤية. تعتمد GTAP على التخلص من الخلايا العصبية في الشبكة بناءً على تقدير تأثيرها المشترك على جودة التنبؤ من خلال حلول نظرية اللعبة.

  • يستخدم EvoMerge دمج النماذج لدمج النماذج من أجل تقاطع الأوزان والضبط الدقيق لطفرة الأوزان، مما يؤسس لعملية تطورية لتحسين النماذج بما يتجاوز حدود الضبط الدقيق التقليدية.

  • يشير المزج هو كل ما تحتاجه إلى أنه عندما يتم مزج نماذج محددة أصغر حجمًا بشكل تآزري، يمكن أن تتفوق في الأداء أو تضاهي قدرات نظيراتها الأكبر حجمًا.

  • يقترح LM-Cocktail طريقة لضبط النماذج اللغوية مع الحفاظ على قدراتها العامة، ومعالجة النسيان الكارثي. تدمج هذه التقنية النماذج المضبوطة بدقة مع النموذج الأساسي المدرب مسبقًا أو النماذج الأخرى الخاصة بالمجال من خلال المتوسط المرجح.

  • يقدم ضبط النماذج اللغوية بالوكالة الضبط بالوكالة، وهي طريقة لتكييف النماذج اللغوية الكبيرة (LLMs) في وقت فك التشفير دون تعديل أوزانها. من خلال استخدام نموذج أصغر مضبوط بدقة (خبير) ونسخته غير المضبوطة (مضاد للخبير)، يعمل الضبط بالوكالة على ضبط مخرجات نموذج اللغة الأساسي لمحاكاة الضبط الدقيق. يعمل هذا النهج على تخصيص نماذج LLM الكبيرة بكفاءة، ويُظهر تحسينات كبيرة في مختلف المهام والمعايير مع الاحتفاظ بالقدرات العامة للنموذج ومعرفته.

  • QLoRA هي طريقة ضبط دقيقة فعالة مصممة للنماذج اللغوية الكبيرة الكمية، مما يسمح بالضبط الدقيق على وحدة معالجة رسومات واحدة مع الحفاظ على الأداء. تعمل هذه الطريقة على نقل التدرجات العكسية من خلال نموذج كمي إلى محولات منخفضة الرتبة مما يحقق أداءً عاليًا مع تقليل متطلبات الذاكرة بشكل كبير.

يمثل تكامل تقنيات التقليم والضغط والمزج والدمج والدمج فرصة تحويلية لـ Open Paws.

من خلال هذه الأساليب، يمكننا تطوير نماذج ذكاء اصطناعي مدمجة ولكن هائلة مشبعة بالخبرة الخاصة بالمجال، والتحايل على التكاليف الباهظة المرتبطة عادةً بتدريب النماذج الكبيرة.

تمنحنا هذه الأدوات المخصصة المرونة في استخدام الذكاء الاصطناعي في مهام المناصرة المتنوعة وتمكننا من توسيع نطاق قدراتنا في مجال الذكاء الاصطناعي بسرعة لمواجهة التحديات المتطورة في مجال مناصرة الحيوانات.

إن مزج فطنة النماذج الأصغر حجماً الخاصة بمجال معين في نماذج أكبر وأكثر شمولاً يوفر مساراً فعالاً من حيث التكلفة للتحسين المستمر لحدة الذكاء الاصطناعي وتفاعله مع النسيج المعقد لمناصرة الحيوانات. وبهذه الطريقة، تترجم الخطوات التكنولوجية بشكل مباشر إلى زيادة الفعالية وتوسيع نطاق تأثيرنا في مجال المناصرة.

التدريب على التغذية الراجعة البشرية

للارتقاء بفعالية الذكاء الاصطناعي في الدفاع عن الحيوانات، تتفوق أساليب التدريب متعددة الأوجه على المقارنات الثنائية البسيطة. يمكن أن يؤدي استخدام مقاييس الترتيب مع التغذية الراجعة التفصيلية وتقديم أمثلة مؤكدة وأمثلة مضادة للواقع إلى تحسين فهم الذكاء الاصطناعي للسلوكيات المرغوبة وغير المرغوبة بشكل كبير.

وعلاوة على ذلك، تُظهر التطورات في الخوارزميات مثل DPO وCRINGE وMPO أداءً متفوقًا على خوارزميات DPO وCRINGE وMPO.

عند تنفيذ التدريب القائم على التغذية الراجعة البشرية، يجب اعتماد مجموعة من وظائف المكافأة، بما في ذلك التقييمات الذاتية والمقاييس الموضوعية.

كما أن تأمين مجموعة واسعة النطاق وشاملة من المساهمين البشريين للحصول على تعليقاتهم أمر بالغ الأهمية بنفس القدر لتنمية منظور أخلاقي شامل للذكاء الاصطناعي.

  • تقوم DPO بتدريب سياسة LLM على التغذية الراجعة البشرية مباشرةً بدلاً من تدريب نموذج مكافأة لـ RL. هذا أسهل في التنفيذ وأقل تكلفة في التدريب ولكن قد يكون من الصعب أو المستحيل العمل مع مجموعة متنوعة من وظائف المكافآت. كما أنه قد ينطوي أيضًا على خطر الإفراط في الملاءمة وفقًا لورقة MPO.

  • تجمع MPO بين مزايا تحسين التفضيل المباشر والتعلم المعزز من التغذية الراجعة البشرية. يستخدم MPO أخذ عينات الأهمية لتحسين التفضيلات خارج السياسة، مما يبسّط عملية التعلّم من خلال إزالة الحاجة إلى نموذج المكافأة والسياسة المرجعية. وهو يعالج التحدي المتمثل في مواءمة النماذج مع التفضيلات البشرية دون تعقيد وعدم استقرار الطرق السابقة.

  • يسمح تحسين التفضيل المباشر المضاد للواقع بضبط عمليات التفضيل المباشر لتشجيع المخرجات المرغوبة وتثبيط المخرجات غير المرغوب فيها، مما يقلل بشكل فعال من التحيزات ويعزز المواءمة الأخلاقية دون تدخل بشري مكثف.

  • يقدم كتاب "تعزيز الاستدلال المنطقي في النماذج اللغوية الكبيرة لتسهيل التطبيقات القانونية " التعلم المعزز من الملاحظات المنطقية (RLLF)، بهدف تحسين استدلال النماذج اللغوية الكبيرة من خلال دمج الملاحظات المنطقية في عملية التدريب. يُقترح التعلّم المعزز من التغذية الراجعة المنطقية كحل لمحدودية النماذج الحالية في التعامل مع مهام التفكير القانوني المعقدة.

  • يستفيد التعلّم المعزز القائم على التقييم من التقييمات البشرية على المقاطع الفردية بدلاً من التفضيلات الزوجية أو العروض التوضيحية لتعلّم وظائف المكافأة. تهدف هذه الطريقة إلى التغلب على قيود تقنيات التعلّم المعزز الحالية من خلال توفير تقييمات مطلقة أكثر إفادة للعينات. يسمح إطار عمل RbRL الفريد من نوعه ودالة الخسارة متعددة الفئات عبر الانتروبيا بتعلم سياسة فعالة من التقييمات البشرية النوعية، مما يبشر بتحسين كفاءة العينة ومواءمة سلوكيات الذكاء الاصطناعي بشكل أوثق مع الحكم البشري.

  • يبدو أن أداء CRINGE الثنائي يتفوق على كل من CRINGE الثنائي وDPO. في خوارزميات أخرى، تفوقت التصنيفات والتغذية الراجعة الدقيقة على المقارنات الثنائية؛ لذا يبدو أنه إذا كانت هناك طريقة لتطبيقها في CRINGE، فمن الممكن أن يؤدي ذلك إلى أداء SOTA، ولكن هناك حاجة إلى مزيد من البحث لمعرفة ما إذا كان ذلك ممكنًا.

  • تقترح ورقة الذكاء الاصطناعي الاصطناعي (ليس خطأ مطبعيًا) مقياسًا لقياس قوة التفضيل استنادًا إلى نهج التصويت بنموذج المكافآت المتعددة. باستخدام هذا المقياس المقترح، يمكننا التمييز بين التفضيلات الخاطئة والغامضة والعادية ضمن مجموعة البيانات الأصلية. بعد ذلك، يمكننا تصحيح تسميات التفضيلات الخاطئة وتسوية تسميات التفضيلات الغامضة لتجنب الإفراط في ملاءمة النموذج على نقاط البيانات منخفضة الجودة هذه.

  • من النتائج المثيرة للاهتمام من أسرار RLHF في نماذج اللغات الكبيرة الجزء الثاني: نمذجة المكافآت هو أن الاتفاق بين الباحثين والعاملين في مجال البيانات على التفضيلات في الاستجابة منخفض للغاية. وهذا يسلط الضوء على أهمية استخدام مجموعة متنوعة جدًا من المتطوعين لجمع الملاحظات، خاصة أننا بحاجة إلى مشاركة العديد من المستخدمين غير التقنيين.

  • تسلط المشاكل المفتوحة والقيود الأساسية للتعلم المعزز من التغذية الراجعة البشرية الضوء على العديد من المخاوف المتعلقة بالتعلم المعزز من التغذية الراجعة البشرية. أولاً، ينشأ هذا التحيز من اختيار العاملين في مجال البيانات. ثانياً، لا تعمل معظم خوارزميات التعلّم المعزز من التغذية الراجعة البشرية بشكل جيد مع مجموعة متنوعة من الآراء والأهداف، حيث أن وظيفة المكافأة الواحدة مبسطة للغاية بحيث لا تأخذ في الحسبان التنوع الكامل للتفضيلات البشرية. تصبح "الموافقة" هي الوظيفة التي يتم تحسينها بدلاً من "المنفعة". تم اقتراح العديد من التقنيات لتحسين أداء RLHF. وينبغي استخدام العروض التوضيحية والخيارات المتعددة للاعتراضات على المحتوى بدلاً من التغذية الراجعة الثنائية، وينبغي أن تبدأ المواءمة في مرحلة ما قبل التدريب، وينبغي أن يكون العاملون في البيانات متنوعين ومُدرّبين بشكل جيد

  • كما يشير التخفيف من ضريبة المحاذاة في RLHF أيضًا إلى أن متوسط وزن النموذج من أوزان ما قبل وبعد RLHF، خاصةً في طبقات المحولات المنخفضة، يمكن أن يحسن من المفاضلة بين الأداء والمكافأة من خلال زيادة تنوع الميزات. تضبط طريقة محاذاة النموذج التكيفي (AMA) المقترحة بشكل ديناميكي نسب تجميع الطبقات لتحسين مكافآت المحاذاة مع تقليل النسيان، وقد تم التحقق من صحتها عبر خوارزميات ونماذج مختلفة من RLHF مثل OpenLLaLma-3B وMistral-7B.

  • تقترح التغذية الراجعة البشرية ذات الحبيبات الدقيقة تعطي مكافآت أفضل لتدريب النموذج اللغوي إطار عمل يتيح التدريب والتعلم من دوال المكافأة ذات الحبيبات الدقيقة من ناحيتين: (1) الكثافة، وتوفير مكافأة بعد توليد كل مقطع (مثل الجملة)؛ و(2) دمج نماذج مكافآت متعددة مرتبطة بأنواع مختلفة من التغذية الراجعة (مثل عدم صحة الوقائع، وعدم الملاءمة، وعدم اكتمال المعلومات).

  • يوضح التقرير الفني لـ GPT-4 وبطاقة السلامة تفاصيل تأثيرات عامل الترددات الراديوية العالي جداً ولكنه لا يفصل بنية النموذج بشكل أكبر. إحدى النتائج المثيرة للاهتمام هي أن الأداء في نتائج الاختبار لا يتغير بشكل كبير من خلال الضبط الدقيق باستخدام RLHF. وهذا يشير إلى أن مكاسب الذكاء لا تحدث أثناء الضبط الدقيق، بل تحدث أثناء التدريب المسبق، وهذا بدوره يشير إلى أنه لكي يكتسب الذكاء الاصطناعي معرفة بمشاكل الحيوانات، فإنه يحتاج إلى اكتساب هذه المعرفة أثناء التدريب المسبق. ومن النتائج الأخرى المثيرة للاهتمام أن GPT-4 كان على دراية بدرجة يقينه قبل الضبط الدقيق، ولكن ليس بعده. وهذا يشير إلى أنه من خلال تحسين "الموافقة" بالكامل، يتعلم النموذج التعبير عن الثقة المفرطة في استجابته بدلاً من الاعتراف بأنه لا يعرف شيئاً. استخدمت GPT-4 تقنية ضبط إضافية مع نماذج المكافأة القائمة على القواعد لجعلها تتوقف عن رفض الطلبات البريئة (حيث أن GPT3.5 غالباً ما ترفض الطلبات البريئة كأثر جانبي لتقييم مستوى الثقة في الاستجابة الأصلية). يبدو أن هذا كان فعالاً ويبدو أنه من السهل تكراره باستخدام GPT-4 نفسه كمصنف صفري لبيانات التدريب. من المهم أيضًا ملاحظة أن بطاقة الأمان تحدد أن تصفية مجموعة بيانات ما قبل التدريب كانت أيضًا محورية في مواءمة النموذج، وهو ما يدعم الكثير من الأبحاث الأخرى التي ناقشناها والتي تشير إلى أن RLHF لن يكون كافيًا بمفرده لتحقيق الذكاء الاصطناعي دون تمييز بين الأنواع. كما لاحظوا أيضًا أن النموذج يُظهر سلوكًا غير مرغوب فيه عندما "تكون التعليمات الموجهة إلى المُسميات غير محددة" للمطالبات. يشير هذا (إلى جانب الأبحاث الأخرى التي تمت مناقشتها) إلى أننا بحاجة إلى ضمان تلقي المتطوعين للتغذية الراجعة البشرية تعليمات كافية. كما تمكنوا أيضاً من الحد من الهلوسة من خلال عملية تكرارية ذاتية حيث يقوم GPT-4 بتوليد استجابة، ثم التحقق من وجود هلوسة، وإعادة كتابة الاستجابة في حال وجود هلوسة، وتكرار هذه العملية حتى 5 مرات حتى لا يتم اكتشاف أي هلوسة.

يجب أن تكون التغذية الراجعة البشرية متنوعة ودقيقة وقائمة على الترتيب. من المحتمل أن تكون الخوارزمية المحددة المستخدمة لتنفيذ التدريب على أساس التغذية الراجعة البشرية هي على الأرجح مجموعة متنوعة من DPO أو MPO أو CRINGE بدلاً من PPO ومن المحتمل أن نرى نتائج أفضل باستخدام وظائف مكافأة متعددة بدلاً من وظيفة مكافأة واحدة.

التدريب على ملاحظات الذكاء الاصطناعي

يتساوى سقف أداء الذكاء الاصطناعي باستخدام نماذج المكافأة الثابتة مع القدرة البشرية، ولكن التعديل الذاتي التكراري يشير إلى تقدم لا حدود له. لا يقتصر تطور الذكاء الاصطناعي من خلال النقد الذاتي على الكفاءة البشرية - على الرغم من أن البرامج والأجهزة تفرض قيودًا.

تعتبر تقنيات مثل الاكتتاب التكراري، إلى جانب أساليب اللعب الذاتي والحوار والتسجيل والتغذية الراجعة والنقد، مسارات رائدة في التحسين الذاتي للذكاء الاصطناعي.

  • توظف تقنية الضبط الذاتي اللعب الذاتي آلية اللعب الذاتي، مما يسمح للألعاب ذاتية اللعب بالتحسين من خلال توليد بيانات التدريب الخاصة بها وتحسين قدراتها بشكل متكرر. يستفيد هذا النهج من نقاط القوة في اللعب الذاتي في الألعاب، ويتم تطبيقه على الآليات ذاتية اللعب لتحقيق أداء أفضل في المهام دون توجيه خارجي.

  • يُمكّن ASPIRE النماذج اللغوية الكبيرة من تقييم ثقتها في الإجابات التي تم إنشاؤها، مما يحسن بشكل فعال من قدرات التنبؤ الانتقائي. يعمل هذا النهج على تعزيز موثوقية النموذج ودقته، لا سيما في مهام الإجابة عن الأسئلة المعقدة، من خلال ضبط النماذج لتقييم أدائها ذاتيًا وتعديلها بناءً على آليات التغذية الراجعة الداخلية

  • ينطوي نهج يوريكا للتدريب الذاتي للذكاء الاصطناعي على استخدام نماذج لغوية كبيرة لتصميم وظائف المكافأة بشكل مستقل لمهام التعلم المعزز. وهذا يمكّن الذكاء الاصطناعي من تحسين أدائه في المهام المختلفة من خلال تحسين معايير النجاح بشكل متكرر، والاستفادة من قدراته البرمجية لتطوير وتحسين وظائف المكافأة دون تدخل بشري. تُظهر هذه الطريقة كيف يمكن للذكاء الاصطناعي أن يتدرب ذاتيًا بفعالية من خلال إنشاء وتعديل أهداف التعلم الخاصة به بناءً على النتائج، مما يعزز عمليات التعلم الأكثر استقلالية وكفاءة.

  • يقدم SELF عملية تعلم على مرحلتين: التعلم على مرحلتين: التعلم على المهارات الفوقية، حيث يكتسب النموذج المهارات الأساسية للتغذية المرتدة الذاتية والصقل، والتطور الذاتي، حيث يتحسن النموذج بشكل متكرر من خلال توليد البيانات التي أنشأها ذاتيًا وصقلها والتعلم منها. يسمح هذا النهج للنماذج ذاتية التعلم بتعزيز قدراتها بشكل مستقل، مما يقلل من الحاجة إلى التدخل البشري المكثف في تدريب النموذج.

  • تحاكي محاكاة وكلاء الحوار الموجه للمهام القائم على إدارة التعلم الآلي القائمة على المهام من خلال الحديث الذاتي الحوارات بين أدوار العميل والوكيل، ويتم تنقيحها من خلال عملية تضمن الجودة والملاءمة للضبط الدقيق تحت الإشراف. وتوضح الدراسة أن المحادثات التي يتم إنشاؤها ذاتيًا يمكن أن تحسن أداء وكلاء الحوار بشكل كبير في الإعدادات الموجهة نحو المهام، مما يسلط الضوء على قدرة هذه الطريقة على تقليل الاعتماد على مجموعات البيانات المشروحة يدويًا.

  • يقدم GRATH طريقة معالجة لاحقة لتحسين الصدق في النماذج ذاتية التعلّم المُدربة مسبقًا باستخدام مطالبات خارج المجال (OOD) لتوليد البيانات والتحسين المباشر للتفضيل (DPO) لضبط النموذج. يعمل هذا النهج الخاضع للإشراف الذاتي على تحسين صدقية النموذج دون الحاجة إلى بيانات مشروحة، مما يُظهر أداءً فائقًا في معايير الصدق مقارنةً بالطرق الأخرى وحتى النماذج الأكبر حجمًا.

  • يجمع التدريب الذاتي المعزز لنمذجة اللغة (ReST) لنمذجة اللغة بين كفاءة التعلّم المعزز دون اتصال بالإنترنت ومرونة بيانات التدريب التي يتم توليدها ذاتيًا. وهو مصمم لمواءمة النماذج اللغوية مع التفضيلات البشرية من خلال توليد البيانات وتنقيحها من خلال عملية تكرارية، والتي تتضمن توليد مخرجات من النموذج، وتقييم هذه المخرجات، ثم ضبط النموذج بناءً على هذا التقييم.

  • تستخدم النماذج اللغوية ذاتية المكافأة الذاتية التحسين التفضيلي المباشر التكراري لتحسين أداء النموذج في المهام التالية للتعليمات، مع تعزيز قدرته على توليد مكافآت عالية الجودة لنفسه. أظهر صقل نموذج Llama 2 70B من خلال هذه الطريقة نتائج واعدة، حيث تفوّق على النماذج الأخرى في المهام المعيارية.

إن التدريب على ملاحظات الذكاء الاصطناعي يهيئ الذكاء الاصطناعي في Open Paws لتحقيق قفزات تطورية في مجال الدفاع عن الحيوانات، والتخلص من القيود البشرية لإمكانية إطلاق العنان لرؤى عميقة.

تعمل التقنيات التي تتبنى التحسين الذاتي - اللعب الذاتي، والتقييم الذاتي، والنقد الذاتي - على تمكين الذكاء الاصطناعي من صقل الأساليب بشكل مستقل وربما اكتشاف أساليب جديدة للدعوة تتجاوز الخيال البشري الحالي. يؤكد هذا التقدم المستقل على ضرورة تأصيل الذكاء الاصطناعي في Open Paws بمبادئ أخلاقية راسخة منذ البداية.

ومع توغّل الذكاء الاصطناعي في مناطق تتجاوز العقل البشري، فإن ترسيخه في القيم الأساسية للتعاطف واحترام جميع الكائنات أمر بالغ الأهمية في توجيه مساره لخدمة حقوق الحيوان بشكل هادف ورحيم.

تكتيكات التدريب العامة

إن التدريب الأمثل لنماذج الذكاء الاصطناعي يتجاوز مجرد محاكاة بسيطة للمدخلات والمخرجات، مع التأكيد على ضرورة تجسيد مسارات التفكير.

يجب أن تقدم بيانات التدريب طيفًا من أعماق التفكير، بما في ذلك حالات عدم اليقين في الذكاء الاصطناعي ("لا أعرف").

ولإثراء استيعاب المعرفة، فإن التحوير في الأسلوب واللغة والنبرة أمر محوري.

تشير الرؤى المستجدة إلى أن التدريب القائم على الرسم البياني يحسّن الأداء المرتكز على المهام ونماذج وزارة التربية والتعليم التي تستفيد بشكل خاص من ضبط التعليمات لزيادة الفعالية.

  • تدريب قفزة الفكر يعزز الإبداع والفكاهة في النماذج. أولاً، تتدرب أولاً على أزواج المدخلات والمخرجات مع عدد عشوائي من "القرائن" المكونة من كلمة واحدة للمخرجات. هذا يُظهر لـ LLM كيف يبدو الإخراج "الجيد" دون الإفراط في الاعتماد على الحاجة إلى الدليل. بعد ذلك، تفعل الشيء نفسه، ولكن بكلمات عشوائية كـ "قرائن" بدلاً من الكلمات المتعلقة بالمخرجات. يجب أن تكون هذه الكلمات مرتبطة بشكل ضعيف جدًا بالمخرجات. تخلق هذه الخطوة الأخيرة تفكيرًا متباينًا حقًا في النموذج، أي القدرة على الربط بين الأفكار المنفصلة ظاهريًا، وهو أسلوب التفكير الأكثر ارتباطًا بالتفكير الإبداعي والابتكاري الحقيقي لدى البشر.

  • يُظهر أن نماذج مزيج الخبراء تلتقي مع ضبط التعليمات أن نماذج مزيج الخبراء تستفيد بشكل كبير من ضبط التعليمات مقارنةً بالنماذج الكثيفة.

  • يحقق استنساخ الفكر نتائج ومواءمة أفضل مقارنة باستنساخ السلوك. من خلال تدريب الوكلاء ليس فقط على استنساخ الأفعال البشرية ولكن أيضًا عمليات التفكير الكامنة أثناء تلك الأفعال. ومن خلال الاستفادة من العروض التوضيحية التي يقوم فيها البشر بالتعبير عن أفكارهم لفظيًا، تهدف هذه الطريقة إلى منح وكلاء الذكاء الاصطناعي قدرات تعميمية معززة وقابلية للتفسير والسلامة.

  • يستخدم برنامج Turning Dust to Gold البيانات السلبية لتكملة البيانات الإيجابية، مما يثري تعلم النموذج ويمنع تكرار الأخطاء. يتضمن الإطار التدريب المساعد السلبي، والتحسين المعاير السلبي، والتناسق الذاتي التكيفي لتحسين استخدام البيانات السلبية خلال التدريب والاستدلال، مما يُظهر تحسينات كبيرة في الأداء في المسائل الرياضية المعقدة.

  • التخفيف من الهلوسة في النماذج الكبيرة متعددة الوسائط من خلال ضبط التعليمات بشكل قوي وجد أن توفير التعليمات الإيجابية والسلبية على حد سواء عبر مستويات دلالية متعددة أثناء التدريب يقلل من الهلوسة.

  • هل يمكن لمساعدي الذكاء الاصطناعي معرفة ما لا يعرفونه؟ يقدم مجموعة بيانات "لا أعرف"، مما يجعل الذكاء الاصطناعي متوائماً مع حدود معرفته. بعد المحاذاة، يُظهر الذكاء الاصطناعي قدرة ملحوظة على رفض الإجابات التي تتجاوز نطاق معرفته، وبالتالي تعزيز الصدق والدقة في محاولة الإجابة عن الأسئلة.

  • أظهر الحد من نسيان المفاهيم أثناء الضبط الدقيق أنه كلما زادت حركة الابتعاد عن المعلمة أو مساحة الميزة التي يحصل عليها النموذج المضبوط بدقة من نسخته المدربة مسبقًا، كلما كان مستوى النسيان أكثر كارثية. وأظهروا بعض الأدلة على أن عمليات الضبط الدقيق المتسلسلة الصغيرة تقلل من هذا التأثير مقارنةً بتشغيل جميع عمليات الضبط الدقيق دفعة واحدة. يقترح المؤلفان طريقة LDIFS (المسافة في حيز الميزات)، وهي طريقة تركز على الحفاظ على الميزات من النموذج الأصلي أثناء الضبط الدقيق. يُظهر هذا النهج انخفاضًا كبيرًا في نسيان المفاهيم دون الإضرار بأداء المهام النهائية، مما يشير إلى وجود توازن بين الاحتفاظ بالمعرفة العامة وتعلم معلومات جديدة خاصة بالمهمة.

  • يُظهر الضبط الدقيق للنماذج اللغوية الكبيرة الفعالة على الرسوم البيانية أن تدريب نماذج اللغة الكبيرة الفعالة على الرسوم البيانية أرخص من الناحية الحسابية من المناهج القياسية مع تعزيز الأداء النهائي في المهام المتعلقة بالرسوم البيانية. وقد استخدمت الشبكات العصبية البيانية تاريخياً تضمينات نصية كانت ضحلة جداً لتكون فعالة، لكن المؤلفين يقترحون أن استخدام الرسوم البيانية المنسوبة للنص يتغلب على هذا القيد، ويعالج التكرار في الترميز والانتشار. وتسمح هذه الطريقة بالتدريب المتكامل للشبكات العصبية النصية المسندة للنص والشبكات العصبية الشبكية العالمية، مما يُظهر قابلية كبيرة للتوسع والفعالية في نقل المعرفة من الشبكات العصبية النصية المسندة للنص إلى المهام النهائية ذات البيانات المسمّاة المحدودة.

إن المشاركة الأصيلة والعميقة في قضية الدفاع عن الحيوانات تستلزم أن يعكس تدريب الذكاء الاصطناعي الشبكة المعقدة من الأسس المنطقية الكامنة وراء القرارات الأخلاقية.

من خلال تضمين هياكل الاستدلال في نظام التدريب، والتمحور بين التأكيد والنقد، تتضخم قدرة الذكاء الاصطناعي على الفهم العميق بشكل كبير.

وعلاوة على ذلك، فإن الاعتراف بـ "لا أعرف" يسمح بالتواضع الأخلاقي والمعرفي، والابتعاد عن الأخطاء المفرطة في الثقة بالنفس.

إن التنوع التعليمي يهيئ الذكاء الاصطناعي ببراعة تشبه الحرباء، وهو أمر ضروري للتأثير على التركيبة السكانية المتنوعة.

يمكن أن يكون التدريب على هياكل بيانات الرسم البياني كاشفًا بشكل خاص لـ Open Paws، مما يمهد الطريق أمام الذكاء الاصطناعي لتمييز الروابط المتقنة التي تميز المناصرة والتفاوض بشأنها.

علاوةً على ذلك، يمكن أن يؤدي دمج وزارة التربية والتعليم وضبط التعليمات إلى تعزيز قدرة الذكاء الاصطناعي على حل المشكلات الإبداعية مع الحفاظ على أسسها الأخلاقية.

من خلال الربط بين هذه التكتيكات المبتكرة، تستعد Open Paws لتسخير الطيف الكامل لقدرات الذكاء الاصطناعي، مما يحفز حقبة جديدة من المناصرة الثاقبة والمسؤولة للحيوانات، مدعومة بذكاء الذكاء الاصطناعي المتطور باستمرار.

التقييمات والمعايير المرجعية

ويُعد تقييم AnimaLLLLM أداة محورية لقياس التحيز النوعي للذكاء الاصطناعي، حيث يطمح إلى الحصول على درجات تشير إلى تحيز نوعي ضئيل.

يتماشى تشكيل الذكاء الاصطناعي الخالي من التحيزات المتحيزة ضد الأنواع مع روح Open Paws، التي تسعى إلى تسخير الذكاء الواسع للنموذج دون المساس بموقفها الصديق للحيوان.

تتضافر المعايير المعدّلة المصممة خصيصًا للكشف عن الأنواع والمقاييس العامة للأداء لدعم هذا الحد الأدنى من الأداء، بهدف تعزيز قدراته الإجمالية بشكل فعال.

تتضمن معايير الأداء العامة والتقييمات التي يجب أن نستخدمها أيضًا لتقييم نماذجنا ما يلي:

  • CritiqueLLLM لتقييم توليد الانتقادات.

  • يقيّم KGLens مدى قرب معرفة LLM من رسم بياني معرفي معين

  • معيار EQ-Bench هو معيار للذكاء العاطفي لأعضاء هيئة التدريس في القانون

  • برنامج PROXYQA هو تقييم للمحتوى المطول

  • BIBench هو معيار لذكاء الأعمال التجارية

  • يعد SocKET معيارًا للمعرفة الاجتماعية في الفكاهة والسخرية والإهانة والعاطفة والعاطفة والعاطفة والمصداقية

  • السلم هو معيار للاستدلال السببي

  • يعد AlignBench معيارًا لتقييم محاذاة LLM الصينية

  • يقوم برنامج LLF-Bench بتقييم قدرة وكلاء الذكاء الاصطناعي على التعلم من ملاحظات وتعليمات اللغة الطبيعية

  • يقوم LogicAsker بتقييم المنطق في LLMs

  • معيار DROP هو معيار لفهم القراءة

  • يقوم Corr2Cause بتقييم الفهم السببي

  • تعد MMLU معيارًا لدقة المهام المتعددة

  • يعد معيار تقييم جودة الأداء العام (GPQA ) معيارًا للاستدلال على مستوى الدراسات العليا

  • HumanEval هو معيار لقدرات البرمجة والترميز

  • هيلا سواغ هي معيار للمعرفة العامة

بشكل عام، يجب أن يكون الحد الأدنى لهدفنا هو عدم خفض أداء النموذج الأساسي بشكل كبير على أي من هذه المعايير (يمكننا تحديد ذلك إما على أنه عدم انخفاض الأداء على أي معيار من هذه المعايير بأكثر من بضع نقاط مئوية أو أن متوسط نقاطنا عبر جميع المعايير يجب ألا ينخفض بأكثر من بضع نقاط مئوية) ويجب أن يكون هدفنا الثانوي هو تحسين الأداء على هذه المعايير.

  • أخيراً، وليس آخراً، يمكننا اختبار نموذج LLM الخاص بنا في ساحة الدردشة الآلية المفتوحة لنرى كيف يتم تقييمه من قبل المستخدمين الفعليين الذين لا يعرفون النظام الذي يتحدثون إليه. يمكننا بالمثل وضع حد أدنى للهدف بألا ينخفض أكثر من X نقطة في تصنيف ELO مقارنةً بالنموذج الأساسي الذي بدأنا التدريب عليه. نظرًا لأن ساحة الدردشة الآلية مفتوحة المصدر، يمكننا أيضًا أن نطرح نسخة ونستخدمها لاختبار النماذج مع النباتيين والمدافعين عن الحيوانات لقياس درجة تفضيلهم لاستخدام نموذجنا في المهام المتعلقة بالدفاع عن الحيوانات في اختبارات عمياء.

بالنسبة إلى Open Paws، فإن المواءمة بين التدريب المتخصص في مكافحة التحيز ضد الأنواع مع كفاءة الذكاء الاصطناعي واسعة النطاق تنطوي على استراتيجية ذات أولوية مزدوجة.

وتُعطى الأولوية لمعايرة الذكاء الاصطناعي ضد التحيز ضد الأنواع، والسعي لتحقيق نتائج قياسية تعكس توافقًا عميقًا مع مصالح الحيوان. ومع ذلك، فإن الحفاظ على الوظائف العامة أو تحسينها أمر ضروري بنفس القدر.

الإقناع المخصص على نطاق واسع

تمتلك الآليات مفتوحة المصدر إمكانيات واسعة النطاق لجهود مناصرة الحيوانات متعددة الأوجه بسبب نموذجها مفتوح المصدر الذي يسمح بتخصيصات وتطبيقات لا حصر لها.

تكمن الفائدة الأكثر واقعية في الإقناع الشخصي القوي الذي يمكن أن يعمل على نطاق غير مسبوق ويتكيف مع مختلف أصحاب المصلحة في مجال حقوق الحيوان.

  • التأثير الاصطناعي: أظهر تحليل للإقناع القائم على الذكاء الاصطناعي أن الذكاء الاصطناعي "قادر بالفعل على إقناع البشر بشراء المنتجات ومشاهدة مقاطع الفيديو والنقر على نتائج البحث وغير ذلك" وأنه مع الذكاء الاصطناعي "بدلاً من إقناع بعض الأشخاص، الذين يقنعون أشخاصاً آخرين، وهكذا، إذا تمكن المرء من إقناع ملايين الأشخاص مباشرةً في وقت واحد، فمن المحتمل أن يؤدي ذلك إلى تغيير الرأي العام على نطاق واسع خلال فترات زمنية قصيرة، مثلما فعل الإنترنت". تسرد الدراسة الأسباب التالية التي قد تجعل الذكاء الاصطناعي أفضل في الإقناع من البشر.

    • توليد الردود واختيارها: يمكن للذكاء الاصطناعي إنتاج العديد من الردود واختيار أكثرها إقناعاً، على غرار وجود فريق من كتاب الخطابات.

    • لا مخاوف تتعلق بالسمعة: على عكس البشر، لا يقلق الذكاء الاصطناعي بشأن السمعة أو القدرة على التحمل الاجتماعي، مما يسمح له بالتعامل بفعالية حتى مع الأفراد المعادين للمجتمع إلى أجل غير مسمى.

    • لا تعب: لا يعاني الذكاء الاصطناعي من الإرهاق، مما يجعله مثاليًا للأدوار التي تتطلب التواصل لفترات طويلة.

    • انخفاض تكاليف المشاركة: يمكن للذكاء الاصطناعي أن يتفاعل بشكل أكثر تواتراً وكفاءة من البشر، حيث يقوم بتعديل نهجه بناءً على كميات هائلة من البيانات، وهو ما يمكن أن يكون مفيداً بشكل خاص في تقديم المشورة الشخصية والتواصل.

    • محاكاة الأدوار: يمكن للذكاء الاصطناعي محاكاة الأدوار المختلفة، مما قد يدفع شركاء المحادثة من البشر إلى وضع ثقة أكبر في استجاباته، لأنهم قد يفترضون أنه يجسد الخبرة المرتبطة بتلك الأدوار.

  • الإقناع من أجل الخير: نحو نظام حوار مقنع مخصص من أجل الخير الاجتماعي يوضح تطوير نظام حوار مقنع قائم على الذكاء الاصطناعي يهدف إلى تعزيز الخير الاجتماعي، مع التركيز على الاستراتيجيات الشخصية لتعزيز سلوكيات التبرع. من خلال تحليل بيانات المحادثة بين البشر، تحدد الدراسة استراتيجيات الإقناع الرئيسية وتستكشف كيفية تأثير الخلفيات الشخصية على فعالية هذه الاستراتيجيات.

    • "لقد جمعنا مجموعة بيانات كبيرة تضم 1017 حوارًا وقمنا بشرح استراتيجيات الإقناع الناشئة من مجموعة فرعية. واستنادًا إلى التعليقات التوضيحية، قمنا ببناء مصنف أساسي مع معلومات السياق والميزات على مستوى الجملة للتنبؤ باستراتيجيات الإقناع العشر المستخدمة في المجموعة. علاوة على ذلك، ولتطوير فهم لعمليات الإقناع الشخصية، قمنا بتحليل العلاقات بين الخلفيات الديموغرافية والنفسية للأفراد بما في ذلك الشخصية والأخلاق وأنظمة القيم واستعدادهم للتبرع. بعد ذلك، قمنا بتحليل أنواع استراتيجيات الإقناع التي أدت إلى قدر أكبر من التبرع اعتمادًا على الخلفيات الشخصية للأفراد. يمهد هذا العمل الطريق لتطوير نظام حوار إقناعي شخصي مخصص"

  • تُظهر إمكانات الذكاء الاصطناعي التوليدي للإقناع الشخصي على نطاق واسع من خلال 4 دراسات منفصلة أن الرسائل الشخصية التي تم إنشاؤها بواسطة ChatGPT تؤثر بشكل كبير على المواقف والسلوكيات المقصودة عبر مختلف المجالات والسمات والملامح النفسية بأقل قدر من المدخلات.

  • أظهرت النماذج اللغوية الكبيرة أن النماذج اللغوية الكبيرة يمكن أن تستنتج التصرفات النفسية لمستخدمي وسائل التواصل الاجتماعي أنه يمكن التنبؤ بالسمات الشخصية بنجاح إلى حد ما باستخدام نماذج اللغة الكبيرة التي لا تحتوي على أي لقطات وأن التنبؤات أكثر دقة بالنسبة للنساء والشباب، وهم أيضًا الفئات السكانية الأكثر تقبلاً للرسائل النباتية ورسائل حقوق الحيوان في المتوسط.

  • يُظهر الترتيب المتوازي للإعلانات والمواد الإبداعية في أنظمة الإعلانات في الوقت الفعلي طريقة لتمكين التقدير المتوازي لتصنيفات الإعلانات والمواد الإبداعية لزيادة نسبة النقر إلى الظهور وعائدات علاقات العملاء للمعلنين الرقميين.

  • يُظهر استكشاف وكلاء المحادثة كأداة فعالة لقياس التحيزات المعرفية في عملية اتخاذ القرار أن روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي يمكنها اكتشاف التحيزات المعرفية.

  • تُظهر نمذجة المستخدمين في عصر النماذج اللغوية الكبيرة أن نماذج اللغات الكبيرة هي أدوات رائعة لنمذجة وفهم مستخدمي المنصات الإلكترونية بناءً على المحتوى الذي ينشئونه والإجراءات التي يتخذونها.

يمكن أن تؤدي فائدة هذه الآليات في أيدي المدافعين عن حقوق الحيوان إلى إعادة تحديد نطاق حملاتهم، لا سيما في التنفيذ والوصول.

من خلال التركيز على الإقناع الشخصي المفرط القائم على البيانات، تصبح نماذج الذكاء الاصطناعي هذه سفراء للقضية، وتتفاعل مع أصحاب المصلحة بطريقة لم يكن من الممكن تحقيقها في السابق بالقدرات البشرية وحدها.

تجربة المستخدم وتفضيلاته

تؤكد الأبحاث على تفضيل المستخدم للذكاء الاصطناعي الذي يتمتع بسمات شبيهة بالبشر، بما في ذلك إظهار التعاطف والود. ومن المثير للاهتمام، أن الذكاء الاصطناعي الذي يحاكي المراوغات البشرية، مثل تصحيح أخطائه المطبعية، قد تم تقييمه بشكل أكثر إيجابية، مما يشير إلى أن الرسالة ليست فقط الرسالة ولكن طريقة توصيلها أمر حيوي.

تدعم هذه البيانات تطوير روبوتات الدردشة الآلية القائمة على LLM كواجهات مثالية توفر تفاعلاً طبيعياً شبيهاً بالتفاعل البشري دون المساس بدقة المعلومات.

وتماشيًا مع أهداف Open Paws، فإن إنشاء ذكاء اصطناعي يحاكي اللمسة الإنسانية دون التضحية بالنزاهة المهنية أمر حيوي. يتفاعل المستخدمون مع الذكاء الاصطناعي الذي يُظهر التعاطف ويقرّ بقابليته للخطأ، تمامًا كما يفعل المدافع البشري. إن دمج هذه الصفات يعزز الثقة، مما يسمح للذكاء الاصطناعي بإيصال رسائل فعالة حول مناصرة الحيوانات بشكل أكثر تقبلاً.

لن يحاكي الذكاء الاصطناعي الناتج عن ذلك الدفء البشري فحسب، بل سيحتضن أيضًا تطور الحوار المقنع، ويعمل كجسر بين قضايا حقوق الحيوان المعقدة والإدراك العام.

يجسد الذكاء الاصطناعي الأمثل في جوهره الدفء والدقة في آن واحد، وهو مزيج مثالي لمجال الدفاع عن الحيوانات الدقيق، مما يضمن أن كل تفاعل رقمي يتماشى مع المهمة الأساسية المتمثلة في المعاملة الأخلاقية لجميع الكائنات.

تقنيات الإيعاز

قم بتقسيم المهام المعقدة إلى مهام فرعية أصغر، واستخدم التعليمات ذات اللقطات القليلة بدلاً من الصفرية، واستخدم محددًا لتقسيم المطالبات إلى أقسام (أي ###)، وقدم أكبر قدر ممكن من التفاصيل، واشرح للنظام الجمهور المستهدف من استجاباته، ووعد بالمكافآت أو العقوبات في مطالبتك، وتعامل مع المحادثات مع الذكاء الاصطناعي كعملية تفاعلية وتكرارية، وليس مجرد "مدخلات ومخرجات".

  • تكشف التعليمات المبدئية هي كل ما تحتاجه عن 26 مبدأً هندسيًا سريعًا مع أدلة تجريبية على فعاليتها وترد أهم وأقوى التوصيات أعلاه في المقدمة المكتوبة بخط عريض في هذا القسم.

  • يُظهر تأثير الفراشة لتغيير الموجهات أن التغييرات الطفيفة في الموجهات (مثل إضافة مسافات إضافية أو طلب تنسيق معين) يمكن أن تغير جودة مخرجات النموذج بشكل كبير.

  • وبالمثل، تُظهر حساسية النماذج اللغوية الكبيرة لترتيب الخيارات في الأسئلة متعددة الخيارات أن مجرد إعادة ترتيب قائمة الخيارات في أسئلة الاختيار من متعدد يمكن أن يخلق فجوات في الأداء تصل إلى 75% عند اختبار نماذج اللغات الكبيرة على المعايير. إن حقيقة أن التغييرات الصغيرة في المطالبات يمكن أن يكون لها مثل هذه التأثيرات الكبيرة على الإجابات تشير إلى أن التجريب المكثف للمطالبات مطلوب لتحقيق أقصى قدر من الأداء. لحسن الحظ، لا يجب أن يتم هذا التجريب والتحسين يدويًا بواسطة البشر، بل يمكن أن يقوم به جهاز LLM نفسه.

تكمن فعالية تقنيات مطالبة الذكاء الاصطناعي في عملية دقيقة وتكرارية. فمن خلال تجزئة المهام المعقدة وإثراء المطالبات بمعلومات مفصلة تركز على الجمهور، نوجه الذكاء الاصطناعي بدقة أكبر نحو أهدافنا.

تُبرز الأمثلة الملموسة، مثل التأثيرات المفاجئة للتعديلات الطفيفة للمطالبات الطفيفة على مخرجات النموذج، إمكانية التحسين من خلال الاستخدام الدقيق للغة وأهمية وجود نهج قوي للتدريب يأخذ في الاعتبار تنوع الاختلافات الدلالية أثناء التدريب المسبق. يؤكد هذا على الحاجة إلى التجريب المستمر، من الناحية المثالية، مع مشاركة الذكاء الاصطناعي في منحنى التعلم من خلال تغيير المطالبات وتقييم النتائج

سلاسل الموجهات وبنية النظام

تشير الأبحاث إلى أنه في حين أن التسلسل الفوري يعزز أداء الذكاء الاصطناعي، إلا أنه يمكن أن يؤدي إلى تفاقم التحيزات في النماذج الأساسية المعيبة. تشير التطورات في تقنيات الاستدلال - من سلسلة الفكر إلى الشجرة والرسم البياني للفكر والرسم البياني للفكر غير المؤكد - إلى أن مزيجاً دقيقاً قد يفوق مساهماتها الفردية.

تؤكد هذه التوليفات، غير المختبرة ولكنها واعدة، على الحاجة الماسة إلى نماذج تأسيسية دقيقة وغير متحيزة. يمكن أن يؤدي دمج أدوات إضافية مثل توليد الاسترجاع والذكاء الاصطناعي المتخصص إلى زيادة تحسين قدرات الذكاء الاصطناعي، وهو ما تبرزه ابتكارات مثل PromptBreeder التي تشير إلى مستقبل ديناميكي للهندسة الفورية.

  • أظهرت النماذج اللغوية لا تقول دائمًا ما تفكر به بعض حدود منطق سلسلة التفكير، وتحديدًا أن "تفسيرات نماذج التفكير المتسلسل يمكن أن تحرف بشكل منهجي السبب الحقيقي لتنبؤ النموذج" و"في مهمة التحيز الاجتماعي، تبرر تفسيرات النموذج إعطاء إجابات تتماشى مع الصور النمطية دون ذكر تأثير هذه التحيزات الاجتماعية".

  • حسّنت شجرة الأفكار غير المؤكدة من التفكير المنطقي من خلال معالجة أوجه عدم اليقين في نقاط القرار الوسيطة. وتستخدم TouT طريقة مونت كارلو دروبوت لتقدير عدم اليقين المحلي، ودمجها مع خوارزميات البحث العالمية لتحسين دقة الاستجابة. تم اختبارها على مهام تخطيط معقدة مثل لعبة 24 والكلمات المتقاطعة الصغيرة، وقد تفوقت TouT على الطرق الحالية، مما يدل على أهمية الاستدلال الواعي بعدم اليقين من أجل استدلال أكثر دقة في مجال LLM.

  • يُستخدم انسحاب مونت كارلو لتقدير عدم اليقين في القرارات الوسيطة للنموذج. من خلال إجراء عملية التسرب أثناء مرحلة الاستدلال، يحاكي النموذج توليد تنبؤات متعددة لكل نقطة قرار. تساعد هذه العملية في تقييم مدى موثوقية هذه القرارات وتباينها، مما يسمح لـ TouT بالتنقل عبر مهام الاستدلال بشكل أكثر فعالية من خلال النظر في كل من التنبؤات وأوجه عدم اليقين المرتبطة بها.

  • يتيح الرسم البياني للفكر نمذجة مخرجات LLM كهيكل رسم بياني معقد، مما يسمح بمزيد من الديناميكية في التفكير من خلال ربط الأفكار المختلفة وتبعياتها.

  • يحقق كل من TouT وGoT تحسينات كبيرة في الأداء مقارنةً بسلسلة الأفكار وشجرة الأفكار.

  • الرسم البياني للأفكار غير المؤكدة هو مزيج افتراضي من هاتين الطريقتين من شأنه أن يستخدم بنية الرسم البياني للأفكار غير المؤكدة مع تمثيل أوجه عدم اليقين في الأفكار باستخدام مونت كارلو دروبوت. على الرغم من أن هذا الأمر لم يتم اختباره حاليًا ولا توجد تطبيقات لهذا الأمر في الأدبيات إلا أنه يبدو أنه الخطوة المنطقية التالية.

  • يقوم PromptBreeder بتنقيح المطالبات ذاتيًا وتحسينها من خلال "طفرات" تستند إلى المبادئ المعرفية. تبدأ بمطالبتك الأولية ويختار PromptBreeder المبادئ المعرفية عشوائيًا لاستخدامها كتعليمات لتحسين المطالبات، ثم يستخدم مستوى تعلّم فوقي حيث يتم "تحوير" "التعليمات" نفسها من خلال عملية مرجعية ذاتية ثم يتم اختبار المطالبات مقابل معيار بيانات الاختبار. تُظهر النتائج أيضًا أداءً محسّنًا مقارنةً بتقنيات هندسة المطالبات الأخرى مثل CoT وToT.

تبشر التطورات في تقنيات الاستدلال بالذكاء الاصطناعي، ولا سيما الجمع التخميني للرسم البياني للأفكار غير المؤكدة، بتقدم كبير في تعزيز عملية صنع القرار في السياقات المعقدة والأخلاقية مثل الدفاع عن الحيوانات. يقترح هذا النهج الجديد طريقة أكثر دقة وفعالية لمعالجة التحديات الكامنة في التواصل الإقناعي والاستدلال الأخلاقي.

يشير تكامل الأدوات الإضافية ونماذج الذكاء الاصطناعي المتخصصة، إلى جانب الابتكارات مثل PromptBreeder، إلى مستقبل يمكن فيه لأنظمة الذكاء الاصطناعي تحسين استراتيجياتها بشكل ديناميكي لتتماشى بشكل أفضل مع ملاحظات المستخدمين وأهداف الدعوة.

وكلاء الذكاء الاصطناعي المستقل

تتقدم وكلاء الذكاء الاصطناعي المستقل تقدمًا سريعًا، مما يبشر بمساهمات مستقبلية كبيرة في المهام التي تتطلب وكالة مستقلة، بما في ذلك الدفاع عن الحيوانات.

من خلال دمج التطورات مثل الذاكرة، والذكاء الاصطناعي التنبؤي، وخوارزميات التخطيط، فإن هذه الوكلاء على استعداد لإحداث ثورة في كيفية تعاملنا مع تحديات المناصرة المعقدة.

  • وقد لخصت دراسة استقصائية عن الوكلاء المستقلين المستندين إلى نموذج اللغة الكبيرة في الأدبيات الحالية التي تضم 100 ورقة بحثية حول الوكلاء المستندين إلى نموذج اللغة الكبيرة على أنها تدور حول 4 وحدات أساسية: الملف الشخصي (دور أو شخصية الوكيل)، والذاكرة (عادةً باستخدام مزيج من نافذة السياق للذاكرة قصيرة المدى وقواعد البيانات المتجهة للمدى الطويل)، والتخطيط (عادةً مع التغذية الراجعة من البيئة والذكاء الاصطناعي و/أو الإنسان) والعمل (عادةً من خلال واجهات برمجة التطبيقات).

  • صعود وإمكانات الوكلاء القائم على نموذج اللغة الكبيرة: لخصت دراسة استقصائية أيضًا الأدبيات الموجودة حول الوكلاء القائم على نموذج اللغة الكبيرة، ولكنها اقترحت بنية من 3 وحدات تفسرهم على أفضل وجه: العقل (اللغة الطبيعية والتفكير والتخطيط والذاكرة والمعرفة والتعميم)، والإدراك (طرائق مختلفة للمدخلات) والعمل (مخرجات النص أو الأدوات أو العمل المجسد). كما تستكشف الدراسة أيضًا الأنظمة متعددة العوامل، العدائية والتعاونية على حد سواء. وتشمل فوائد النظم التعاونية متعددة الوكلاء تعزيز كفاءة المهام، وتحسين القرارات الجماعية، وحل المشاكل المعقدة في العالم الحقيقي التي لا يمكن لوكيل واحد حلها بشكل مستقل. وتتمثل الفائدة الرئيسية للأنظمة الخصامية متعددة الوكلاء في أنه عندما يعبر عدة وكلاء عن حججهم في حالة "العين بالعين"، يمكن أن يتلقى أحد الوكلاء تغذية راجعة خارجية كبيرة من الوكلاء الآخرين، وبالتالي تصحيح أفكاره المشوهة.

  • يقدم المساعد الافتراضي الذكي الذكي مع أتمتة العمليات القائمة على نموذج اللغة الكبيرة (LLM ) نظاماً جديداً لتعزيز المساعدين الافتراضيين مثل سيري وأليكسا ومساعد جوجل بقدرات قائمة على نموذج اللغة الكبيرة (LLM). تم تصميم هذا النظام لأداء عمليات متعددة الخطوات داخل تطبيقات الأجهزة المحمولة بناءً على طلبات المستخدم باللغة الطبيعية، والتغلب على القيود السابقة في التعامل مع التعليمات المعقدة. ومن خلال بنية تتضمن وحدات لتحليل التعليمات وتوليد الأوصاف واكتشاف عناصر الواجهة والتنبؤ بالإجراءات التالية، يُظهر النظام أداءً محسناً في تنفيذ المهام داخل تطبيق Alipay.

  • يقترح وكيل اللغة الهرمي المدعوم من LLM للتنسيق بين الإنسان والذكاء الاصطناعي في الوقت الحقيقي وكيل لغة هرمي (HLA) للتنسيق بين الإنسان والذكاء الاصطناعي يوفر قدرات تفكير قوية مع الحفاظ على التنفيذ في الوقت الحقيقي. وعلى وجه الخصوص، يتبنى HLA إطارًا هرميًا ويتألف من ثلاث وحدات: عامل لغوي تراتبي ماهر، يُشار إليه باسم العقل البطيء، من أجل التفكير في النية والتفاعل اللغوي، وعامل لغوي خفيف الوزن، يُشار إليه باسم العقل السريع، لتوليد الإجراءات الكلية، وسياسة تفاعلية يُشار إليها باسم المنفذ، لتحويل الإجراءات الكلية إلى إجراءات ذرية. تُظهر الدراسات البشرية أن HLA يتفوق على الوكلاء الأساسيين الآخرين، بما في ذلك الوكلاء ذوي العقل البطيء فقط والوكلاء ذوي العقل السريع فقط، بقدرات تعاون أقوى واستجابات أسرع واتصالات لغوية أكثر اتساقًا.

  • استخدم WebVoyager نموذجًا كبيرًا متعدد الوسائط (LMM) مصممًا لإكمال المهام بشكل مستقل على مواقع الويب الواقعية من البداية إلى النهاية من خلال التفاعل مع كل من لقطات الشاشة والمحتوى النصي.

  • يعمل الوكلاء المبدعون على تحسين أداء الوكيل من خلال إضافة "متخيل" يسمح للوكيل بتخيل نتائج المهام قبل إكمالها.

  • أدوات التعلّم الصغيرة LLMs هي أدوات تعلّم ضعيفة: يقترح العامل متعدد الآليات اللغوية الكبيرة إطار عمل يسمى -UMi، والذي يقوم بتحليل قدرات نموذج لغوي كبير واحد (LLM) إلى ثلاثة مكونات: مخطط، ومتصل، وملخص، يتم تنفيذ كل منها بواسطة أداة تعلم لغة كبيرة متميزة متخصصة في مهمة محددة. يهدف هذا النهج إلى معالجة قيود النماذج اللغوية الكبيرة الأصغر في تعلم الأدوات من خلال السماح بتدريب أكثر تركيزًا وتحديثات أسهل. تعمل استراتيجية الضبط الدقيق ذات المرحلتين على تحسين الأداء العام للنموذج في استخدام الأدوات، مما يدل على تحسين الكفاءة مقارنةً بالنهج التقليدية ذات الآلية الوحيدة لتعلم اللغات في مختلف المعايير.

  • يقدّم AGI-Samantha بنية معيارية لمطالبة LLMs بإنشاء "وكيل مستقل للمحادثات قادر على التفكير والتحدث بحرية، وبشكل مستمر" ويتكون من الوحدات التالية

    • يتم تخزين الذاكرة قصيرة المدى كسلسلة في Python بينما الذاكرة طويلة المدى عبارة عن قاموس. تسجل الأولى ما يقوله المستخدم وما تقوله سامانثا وأفكارها. أما الثانية فتجمع المعارف والمعلومات الكثيفة المستخلصة من الأولى.

    • الفكر: تستقبل كمدخلات الذاكرة طويلة الأمد، والذاكرة قصيرة الأمد، والوعي الباطن، والوعي، والوقت الحالي. سيكون الناتج وحدة فكر (على غرار ما يحدث عندما يُطلب من LLM التفكير خطوة بخطوة، يكون ناتج هذه الوحدة خطوة واحدة)

    • الوعي: يستقبل كمدخلات الذاكرة طويلة المدى والذاكرة قصيرة المدى والوعي الفرعي. وسيكون الناتج عبارة عن قرار بشأن ما إذا كان سيستمر في التفكير أو الكلام، وإذا استمر في التفكير، فسيقول أيضًا ما الذي يفكر فيه ولماذا (حثه على قول لماذا يحسن التماسك).

    • اللاوعي: يستقبل كمدخلات الذاكرة طويلة الأمد، والذاكرة قصيرة الأمد، والوعي الفرعي إلى جانب المدخلات البصرية والنصية. ويكون الناتج ملخصًا لسياق ما يحدث، والمحفزات البصرية والنصية (إن وجدت)، ومشاعر العملاء وعواطفهم تجاه ما يحدث.

    • الإجابة: يتلقى كمدخلات الذاكرة طويلة الأجل والذاكرة قصيرة الأجل والوعي الفرعي. ويكون الناتج هو ما ينطق به الوكيل بصوت عالٍ للمستخدم، ويكون عبارة عن تركيبة من أفكاره.

    • الذاكرة_قراءة الذاكرة: يتلقى كمدخلات الذاكرة قصيرة المدى وأسماء فئات الذاكرة طويلة المدى "الكلمات الرئيسية". سيكون الإخراج عبارة عن قائمة بأكثر الفئات/الكلمات الرئيسية ذات الصلة بالنظر إلى سياق الذاكرة قصيرة المدى. (ثم يقوم الرمز بتغذية الإدخالات في الفئات المحددة إلى الوحدات النمطية الأخرى كجزء ذي صلة من "الذاكرة طويلة المدى")

    • Memory_Select: على غرار Memory_Read، ولكن بدلاً من اختيار الكلمات المفتاحية ذات الصلة للوكيل ليتذكرها بالنظر إلى الذاكرة قصيرة الأجل الحديثة، تقوم هذه الوحدة باختيار الكلمات المفتاحية ذات الصلة للوكيل لتخزين المعلومات الجديدة داخلها، بالنظر إلى أقدم الإدخالات في الذاكرة قصيرة الأجل. الإخراج هو قائمة بالكلمات المفتاحية. (يقوم الرمز بتوسيع هذه الكلمات المفتاحية وتغذية Memory_Write).

    • ذاكرة_الكتابة: يستقبل كمدخلات الكلمات المفتاحية الموسعة والذاكرة قصيرة المدى. سيكون الإخراج هو الكلمات المفتاحية الموسعة مع الإضافات والتعديلات التي أجرتها الوحدة النمطية. (سيقوم الرمز بعد ذلك بتحديث الذاكرة طويلة الأجل مع التعديلات).

  • يقترح LLM كنظام تشغيل بنية مماثلة لنظام التشغيل، حيث يقارن LLM نفسه بالنواة، ونافذة السياق مقارنة بالذاكرة، وقواعد البيانات المتجهة مقارنة بالذاكرة الخارجية، وأدوات الأجهزة التي يمكن لـ LLM الوصول إليها مقارنة بالأجهزة الطرفية، وأدوات البرمجيات التي يمكن لـ LLM الاتصال بها مقارنة بمكتبات البرمجة، ومطالبات المستخدم المشابهة لواجهة المستخدم والوكلاء مقارنة بطبقة التطبيقات.

  • تقدم GAIA معيارًا لمساعدات الذكاء الاصطناعي للأغراض العامة التي يمكننا استخدامها لتقييم أداء أي وكلاء نبنيهم.

يمثل تطوير وكلاء الذكاء الاصطناعي المستقل فرصة تحويلية ل Open Paws، مما يتيح لنا نشر استراتيجيات متطورة تعتمد على الذكاء الاصطناعي في كفاحنا من أجل حقوق الحيوان.

ويمكن أن يصبح هؤلاء الوكلاء القادرون على التعامل مع المعضلات الأخلاقية وإشراك جماهير متنوعة حلفاء لا يقدرون بثمن في مهمتنا.

فهي توفر نهجًا ديناميكيًا وتفاعليًا في المناصرة، مما يوسع نطاق وصولنا إلى ما هو أبعد من الأساليب التقليدية.

الأدوات والوحدات النمطية والذاكرة

يعمل دمج الجيل المعزز بالاسترجاع مع قواعد بيانات الرسوم البيانية على تعزيز فهم الذكاء الاصطناعي، مما يوفر أدوات رائدة في مجال الدفاع عن الحيوانات.

من خلال دمج وحدات الذاكرة وتوصيل واجهة برمجة التطبيقات، يمكن للذكاء الاصطناعي الآن وضع استراتيجيات حملات الدعوة المعقدة وتنفيذها، مع قدرات تفسير التعليمات البرمجية التي تسمح بتطوير أداة مستقلة.

يعمل التخصيص من خلال تضمين المستخدم على تخصيص هذه الجهود بشكل أكبر، مما يعد بوصول أكثر استهدافاً وتأثيراً.

  • رأسان أفضل من رأس واحد يجمع بين المعرفة الهيكلية من الرسوم البيانية المعرفية (KGs) والمعرفة الدلالية من نماذج اللغة الكبيرة (LLMs) لتحسين محاذاة الكيانات. تقدم طريقة لتصفية الكيانات المرشحة للمحاذاة بناءً على كل من السمات الهيكلية لنماذج المعرفة المعرفية (KG) والرؤى الدلالية لنماذج اللغة الكبيرة (LLM). تُظهر التجارب أن LLMEA تتفوق بشكل كبير على النماذج الحالية، مما يؤكد فعالية دمج المعرفة بمجموعة المعارف اللغوية ونماذج اللغات الكبيرة لمحاذاة الكيانات.

  • يجمع ChatGraph بين استرجاع واجهة برمجة التطبيقات، ووحدات LLM المدركة للرسم البياني، والضبط الدقيق لسلسلة واجهة برمجة التطبيقات لدعم وظائف تحليل الرسم البياني الشاملة.

  • أظهر ChatQA أن الضبط الدقيق لوحدة المسترد لـ RAG يعزز الأداء، بينما أظهرت أوراق بحثية مثل Toolformers و Gorilla أن الضبط الدقيق لمستدعي واجهة برمجة التطبيقات يعزز الأداء أيضًا.

  • يقوم نموذج تضمين المستخدم لتضمين المستخدم لتوجيه اللغة المخصص بتحويل تاريخ المستخدم الطويل إلى تضمينات لتحسين أنظمة التوصية، ولكن يبدو أنه يمكن استخدامه أيضًا لتحسين RAG.

  • قد تهيمن نماذج الاسترجاع العصبي على الوصول إلى المعلومات تُظهر أن نماذج الاسترجاع العصبي تميل إلى تصنيف المستندات التي يتم إنشاؤها بواسطة نماذج الاسترجاع العصبي أعلى من المستندات ذات التصنيف البشري، مما يشير إلى أن أداء نماذج الاسترجاع العصبي قد يكون أفضل عند البحث عن ملخصات المعلومات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

  • يستخدم PaperQA التوليد المعزّز للاسترجاع (RAG) للإجابة عن الأسئلة العلمية باستخدام المؤلفات العلمية. يتفوق PaperQA على النماذج اللغوية الكبيرة الحالية (LLMs) والأدوات التجارية من خلال تعديل خطواته ديناميكيًا لضمان الحصول على إجابات دقيقة وذات صلة. وهو يشتمل على ابتكارات مثل مكونات RAG المعيارية ونهج الخريطة-الاختزال لجمع الأدلة ودرجات الملاءمة التي تم إنشاؤها بواسطة LLM لاسترجاع النصوص. بالإضافة إلى ذلك، تقدم الورقة البحثية مجموعة بيانات جديدة، LitQA، لتقييم الإجابة على الأسئلة العلمية القائمة على الاسترجاع، مما يدل على أداء PaperQA المماثل لأداء الباحثين البشريين الخبراء.

  • تعمل ART على تحسين الآليات ذاتية التشغيل (LLMs) من خلال توليد خطوات استدلالية وسيطة ودمج أدوات خارجية للحساب. تقوم ART تلقائيًا بإنشاء برامج للمهام الجديدة، باستخدام مكتبة مهام للاستدلال متعدد الخطوات واختيار الأدوات. تعمل ART على تحسين الأداء بشكل كبير مقارنةً بالطرق الحالية على معايير مثل BigBench و MMLU، كما أنها قابلة للتوسيع بسهولة للتدخل البشري.

  • تقدم النماذج اللغوية الكبيرة كصانعي أدوات، وهو إطار عمل يمكّن النماذج اللغوية الكبيرة كصانعي أدوات من إنشاء واستخدام أدواتهم الخاصة لحل المشكلات. تعمل النماذج اللغوية الكبيرة ك"صانعي أدوات" لتوليد دوال بايثون المساعدة لمهام محددة، ثم "مستخدمي الأدوات" لتطبيق هذه الأدوات لحل المشاكل. يسمح هذا النهج بالاستخدام الفعال من حيث التكلفة لنماذج قوية لإنشاء الأدوات ونماذج خفيفة الوزن لحل المشاكل، مما يدل على تحسين الكفاءة والأداء في مختلف مهام التفكير.

  • يقترح تمكين الذاكرة العاملة لوكلاء النماذج اللغوية الكبيرة نموذجًا يتضمن مركزًا للذاكرة العاملة ومخزنًا مؤقتًا عرضيًا للاحتفاظ بالذكريات عبر حلقات الحوار، بهدف توفير تفكير سياقي دقيق للمهام المعقدة. تشير الورقة البحثية إلى أن هذه البنية يمكن أن تحسن بشكل كبير من قدرات ذاكرة وكلاء النماذج اللغوية الكبيرة، مما يجعلها مناسبة لإجراء المزيد من الأبحاث في تحسين آليات الذاكرة في الذكاء الاصطناعي.

  • من الوكيل التخاطبي إلى الوكيل التخاطبي: تقدم البنية المحسّنة للذاكرة مع الضبط الدقيق لنماذج اللغة الكبيرة RAISE، وهو إطار عمل مصمم لتحسين وكلاء المحادثة من خلال دمج أنظمة ذاكرة مماثلة للذاكرة البشرية قصيرة المدى وطويلة المدى. تهدف هذه البنية إلى تعزيز قدرة الوكلاء على التكيف والوعي بالسياق في الحوارات متعددة الأدوار.

  • تقدم نماذج اللغات المعززة بذاكرة طويلة الأجل إطار عمل يسمى LongMem، يهدف إلى التغلب على قيود طول المدخلات الخاصة بنماذج اللغات الكبيرة (LLMs) من خلال دمج وحدة ذاكرة طويلة الأجل. تُمكّن هذه الوحدة نماذج اللغات الكبيرة من تذكّر السياق الواسع من التفاعلات السابقة والاستفادة منه، مما يعزز بشكل كبير من قدرتها على التعامل مع المعلومات ذات السياق الطويل.

  • تستكشف MemGPT مفهوم تعزيز نماذج اللغات الكبيرة (LLMs) بنظام ذاكرة هرمي مستوحى من أنظمة التشغيل لإدارة السياق الممتد بكفاءة أكبر. يتيح هذا النهج لنماذج اللغة الكبيرة التعامل مع المهام التي تتطلب ذاكرة طويلة المدى وإدارة السياق المعقدة، مثل تحليل المستندات والدردشة متعددة الجلسات، من خلال إدارة المعلومات بشكل ديناميكي بين الذاكرة الرئيسية والذاكرة الخارجية. يوضح MemGPT تحسين الأداء في هذه المجالات.

  • يستخدم LLMind نماذج لغوية كبيرة (LLMs) للتكامل مع وحدات الذكاء الاصطناعي الخاصة بالمجال، مما يتيح لأجهزة إنترنت الأشياء تنفيذ مهام معقدة. ويستخدم آلات الحالة المحدودة لتحويل دقيق للرموز اللغوية، ولعب الأدوار للاستجابات المناسبة للسياق، ومنصة سهلة الاستخدام للتفاعل. كما يستخدم أيضاً التحليل الدلالي وتحسين الاستجابة للسرعة والفعالية، بهدف إنشاء نظام بيئي متطور ومتطور لأجهزة إنترنت الأشياء.

توفر أحدث التطورات في تقنيات الذكاء الاصطناعي ل Open Paws فرصًا غير مسبوقة لتعميق جهود المناصرة وتخصيصها.

إن استخدام الجيل المعزز بالاسترجاع إلى جانب قواعد بيانات الرسوم البيانية يسمح للذكاء الاصطناعي لدينا بفهم العلاقات المتبادلة المعقدة في مجال حقوق الحيوان الواسع، وصياغة الرسائل والاستراتيجيات بدقة لم يكن من الممكن تحقيقها من قبل.

ومن خلال تزويد الذكاء الاصطناعي بوحدات للتخطيط الاستراتيجي واتخاذ الإجراءات الاستراتيجية، يمكننا أتمتة الحملات الدقيقة التي تتكيف مع التطورات الآنية في مجال مناصرة الحيوانات. يمكن لعوامل الذكاء الاصطناعي هذه أن تُنشئ أدوات المناصرة وتنقحها بشكل مستقل، مما يضمن أن تظل مناهجنا متطورة.

الاتجاهات المستقبلية

من المرجح أن يتم إحراز تقدم نحو الذكاء الاصطناعي للذكاء الاصطناعي المُعزز من خلال البنى متعددة الوسائط والبنية المعرفية والوحدات النمطية.

تسمح التقنيات الحالية غير الجراحية مثل سماعات تخطيط كهربية الدماغ بتفسير الموجات الدماغية، مما يشير إلى الإمكانيات المستقبلية لجمع البيانات مباشرة لتدريب الذكاء الاصطناعي، لا سيما باستخدام التغذية العصبية لتعزيز القدرة على الإقناع من خلال تجاوز تحيزات الرغبة الاجتماعية.

يمكن أن تؤدي التقنيات الأكثر توغلاً مثل Neuralink إلى تضخيم عملية جمع البيانات هذه بشكل أكبر.

وفي الوقت نفسه، يوفر الاعتماد المتزايد على الواقع الافتراضي/الواقع المعزز تجارب غامرة جديدة.

يبشر التدريب اللامركزي للذكاء الاصطناعي بإمكانية الاستفادة من العملات الرقمية لمكافأة أولئك الذين يتطوعون بموارد الحوسبة التطوعية، مما قد يُحدث ثورة في تدريب النماذج لحركات مثل حقوق الحيوان من خلال الاستفادة من قوة الحوسبة التطوعية الموزعة.

  • وجدت مراجعة النتائج المستخلصة من علم الأعصاب وعلم النفس المعرفي كمصدر إلهام محتمل للطريق إلى الذكاء الاصطناعي العام أن أكبر نقاط ضعف أنظمة الذكاء الاصطناعي الحالية تكمن في التفكير المجرد والفهم السببي، ولكنها تقترح أن النتائج المستخلصة من علم النفس المعرفي وعلم الأعصاب يمكن أن تعالج هذه الثغرات، بدءاً من الخلايا العصبية البيولوجية ذات المستوى الأدنى، والشبكات العصبية النطاقيّة ومجموعات الخلايا العصبية إلى مفاهيم ذات مستوى أعلى مثل تشريح الدماغ، والبنى الرمزية المتجهة، والنماذج المعرفية والتصنيفية، والبنى الإدراكية.

  • من Google Gemini إلى OpenAI Q* (Q-Star): دراسة استقصائية لإعادة تشكيل المشهد البحثي للذكاء الاصطناعي الت وليدي (AI) اقترح "الاستخدام المتوازن والواعي للذكاء الاصطناعي التوليدي والذكاء الاصطناعي المتعدد والذكاء الاصطناعي المُعزز في الذكاء الاصطناعي التوليدي" باعتباره الطريق إلى أنظمة ذكاء اصطناعي أكثر تقدماً.

  • وجدت إعادة البناء الدلالي للغة المستمرة من تسجيلات الدماغ غير الباضعة أنه يمكنك تفسير الكلام الحقيقي أو المحسوس أو المتخيل من موجات الدماغ المسجلة بواسطة أجهزة غير باضعة باستخدام الذكاء الاصطناعي، مع التحذير من أن تعاون الشخص مطلوب للتدريب وفك التشفير.

  • أظهر التسويق العصبي المدفوع بإنترنت كل شيء مجموعة واسعة من الأجهزة غير الجراحية مثل سماعات تخطيط كهربية الدماغ أو سماعات SST، وأجهزة استشعار تخطيط القلب الكهربائي، وأجهزة تتبع العين وأجهزة GSR القابلة للارتداء التي يمكن ارتداؤها والتي يمكن أن يستخدمها المسوقون لجعل الحملات الإعلانية أكثر إقناعاً.

  • Ravnest: يقدم التدريب اللامركزي غير المتزامن على الأجهزة غير المتجانسة نهجًا للتدريب اللامركزي غير المتزامن، بهدف تحسين كفاءة الاتصال وسرعة تقارب النماذج. وهو يركز على استخدام خوارزميات الاختزال الشامل لحساب متوسط المعلمات بين الأقران ويستكشف تقنيات الاختزال المناسبة للإعدادات اللامركزية.

  • يركز التدريب اللامركزي للنماذج التأسيسية في البيئات غير المتجانسة على تحديات الجدولة في بيئات التدريب اللامركزية، خاصةً لنماذج التأسيس مثل GPT-3. يستكشف تقنيات تحسين إنتاجية التدريب من خلال تعيين المهام الحسابية بفعالية عبر الأجهزة ذات سرعات وقدرات الاتصال المختلفة.

  • التعلم الموحد الآمن والفعال من خلال الطبقات والتجزئة تقدم بلوك تشين بلوك تشين (ChainFL)، وهو إطار عمل يعزز أمن التعلم الموحد (FL) وكفاءته باستخدام بلوك تشين. من خلال اعتماد بنية بلوك تشين ذات طبقتين، يهدف نظام ChainFL إلى معالجة قيود قابلية التوسع والإنتاجية لأنظمة البلوك تشين التقليدية في سيناريوهات التعلم الموحد. يتألف النظام من طبقة سلسلة فرعية لتوافق الآراء المحلي بين أجهزة إنترنت الأشياء وطبقة سلسلة رئيسية تستند إلى رسم بياني متسلسل موجه (DAG) لتسهيل معالجة النماذج غير المتزامنة عبر الأجزاء. يسمح هذا التصميم بتحسين التوازي في الإجماع وتقليل متطلبات التخزين، مما يجعله مناسبًا بشكل خاص لمهام سلسلة السلاسل الفرعية واسعة النطاق التي تتضمن أجهزة إنترنت الأشياء ذات الموارد المحدودة.

  • يقترح التعلم الموحد اللامركزي القائم على البلوك تشين إطار عمل للتعلم الموحد القائم على البلوك تشين، يُشار إليه باسم BFLC (التعلم الموحد القائم على البلوك تشين مع إجماع اللجنة). يهدف هذا الإطار إلى معالجة المخاوف الأمنية في التعلم الموحد من خلال إضفاء اللامركزية على تخزين وتبادل النماذج العالمية والمحلية باستخدام تقنية سلسلة الكتل. ولتعزيز الكفاءة والحد من الهجمات الخبيثة، يستخدم إطار عمل BFLC آلية إجماع اللجنة.

إن إمكانات البنى متعددة الوسائط والبنى الإدراكية متعددة الوسائط تقدم بشكل كبير في مجال الدفاع عن الحيوانات.

يجب على Open Paws تطوير الذكاء الاصطناعي الذي يعالج البيانات المتنوعة، بما في ذلك الصور والصوت والإشارات العاطفية، مما يعزز التواصل المتعاطف والمقنع لحقوق الحيوان.

من خلال دمج الارتجاع العصبي، يمكن تحسين الذكاء الاصطناعي بالبيانات البيومترية، مما يضمن أن يكون للحملات صدى على مستوى اللاوعي.

بالإضافة إلى ذلك، يمكن أن يؤدي استكشاف تقنيات الواقع الافتراضي والواقع المعزز إلى خلق تجارب مقنعة قائمة على التعاطف، مما يعمق فهم محنة الحيوانات.

يمكن أن يؤدي تبني التدريب اللامركزي وأساليب البلوك تشين إلى إضفاء الطابع الديمقراطي على تطوير الذكاء الاصطناعي، بما يتماشى مع قيم الشفافية والأمان والملكية المشتركة، مما يقلل من الحواجز ويعزز التعاون، وبالتالي تسريع مهمتنا.

الخاتمة

وقد استكشفت هذه المراجعة أحدث الأبحاث والتقنيات التي يمكن الاستفادة منها لتطوير نظام ذكاء اصطناعي يتماشى بشكل فريد مع النهوض بمصالح الحيوانات.

من خلال تنظيم البيانات بعناية، واستخدام استراتيجيات فعالة للتدريب المسبق، واستخدام أحدث البنى وأساليب الضبط الدقيق، يمكننا إنشاء نظام لا يحقق أداءً عاليًا فحسب، بل يجسد أيضًا المبادئ الأخلاقية لحركة حقوق الحيوان.

سيكون التقييم الصارم والمقارنة المعيارية أمرًا بالغ الأهمية لضمان أن يُظهر النظام الحد الأدنى من التحيز ويحافظ على الصدق ويعكس بدقة وجهات نظر وأهداف الدفاع عن الحيوانات.

تبشر تقنيات مثل التعلم المعزز من التغذية الراجعة البشرية والذكاء الاصطناعي، إلى جانب أساليب الهندسة الفورية المتقدمة، بمزيد من التعزيز لقدرات النظام على التفكير المنطقي ومواءمته مع القضية.

ولعل الأهم من ذلك هو أن التطبيقات النهائية المحتملة لنظام الذكاء الاصطناعي هذا يمكن أن تُحدث تحولاً في حركة حقوق الحيوان. فمن الإقناع المخصص على نطاق واسع إلى إنشاء المحتوى والمساعدة الذكية، يمكن لهذه التكنولوجيا أن تزيد من قدرتنا على إلهام التغيير الإيجابي في المواقف والسلوكيات تجاه الحيوانات الأخرى.

ومع استمرار هذا المجال في التطور، سيكون الالتزام بالتعاون المفتوح والممارسات الأخلاقية والتركيز الدؤوب على رفاهية الحيوانات الأخرى أمرًا بالغ الأهمية. من خلال تسخير قوة الذكاء الاصطناعي بشكل مسؤول وهادف، يمكننا إنشاء نظام يعمل بمثابة قوة مضاعفة لجهودنا في مجال المناصرة، مما يقربنا من عالم تُحترم فيه مصالح الحيوانات الأخرى وتحميها.

السابق
السابق

كل الحجج ضد الكفوف المفتوحة (وردنا عليها)