الذكاء الاصطناعي إلى التشفير

متوسط9/19/2024, 2:23:31 AM
أطلقت في نوفمبر 2022 وأفتتحت عيون العديد من لاعبي الصناعة إلى نموذج اللغة الكبيرة للذكاء الاصطناعي. هذا الديناميكية المتهورة اخترقت مجال العملات الرقمية، ويهدف هذا المقال إلى تقديم تطور الذكاء الاصطناعي، ووضعه الحالي، والصناعة التي نشأت من توافق الذكاء الاصطناعي والعملات الرقمية.

أدت إطلاق ChatGPT في نوفمبر 2022 إلى فتح أعين مختلف لاعبي الصناعة لنموذج لغة الذكاء الاصطناعي الكبير. انتشر هذا الديناميكية المتهورة في مجال العملات الرقمية، وتهدف هذه المقالة إلى تقديم تطور الذكاء الاصطناعي، ووضعه الحالي، والصناعة التي نشأت من تجميع الذكاء الاصطناعي+العملات الرقمية.

تطور الذكاء الاصطناعي ووضعه الحالي

أنواع وهندسيات

التعلم الآلي (ML) هو تقنية ذات قدرات تعلم تجريبية، تتعلم التمييز بين الحيوانات، وترجمة اللغة، ومهام أخرى محددة من خلال التعلم من مجموعات بيانات كبيرة. ينتمي التعلم الآلي إلى أكثر الطرق عملية لتحقيق الذكاء الاصطناعي في الوقت الحالي، وفقًا لما إذا كانت البيانات المتعلمة معلمة والميزات يمكن تقسيمها إلى التعلم الإشرافي والتعلم الغير إشرافي.

هناك العديد من أنواع النماذج التي يمكن أن تنجز التعلم الإشرافي، بما في ذلك النماذج القائمة على الأشجار، والنماذج الرسومية، والشبكات العصبية التي ظهرت مؤخرًا. مع التطور السريع لقوة الحوسبة والبيانات، تم تطوير التعلم العميق بناءً على هندسة الشبكات العصبية. تشمل الهندسات الحالية للتعلم العميق بشكل شائع، ولكن ليس محصورًا فيها، CNNs و RNNs وآليات الانتباه.

تصنيف التعلم الآلي، المصدر: هاشكي كابيتال

تختلف شبكات التعلم العميق في الهندسة المعمارية الأساسية لطبقة الإدخال والطبقة الخفية وطبقة الإخراج، حيث تكون الطبقة الإدخال عادة نصًا وفيديو وصوتًا، وبيانات أخرى بعد معالجتها بتقنية "الرمزية/التضمين". تحتوي الطبقة الخفية على تصميم مختلف (شكل النموذج) اعتمادًا على مجموعة البيانات وغرض المهمة، كما هو موضح في الجدول.

أنواع الشبكات العصبية، المصدر: منظمة بواسطة هاشكي كابيتال

ثلاثون عامًا من تطوير الشبكات العصبية

30 سنة من تطوير الشبكة العصبية، المصدر: منظم من قبل رأس المال هاشكي

بدأ تدريب الشبكات العصبية في منتصف الثمانينات من القرن الماضي عندما قام جوردان بتدريب شبكة عصبية لتعلم الأنماط التسلسلية في ورقته البحثية لعام 1986ترتيب سلسلة: نهج معالجة توزيعية موازية. كان لدى الشبكة الصغيرة فقط بضعة عصبونات.

في التسعينيات، قام جيفري إيرمان بتوسيع الشبكة العصبية إلى شبكة تحتوي على 50 خلية عصبية باكتشاف أن الشبكة تجمع الكلمات مكانيًا استنادًا إلى المعنى. على سبيل المثال، فقد فصلت بين الأسماء الغير حية والحية، وضمن هاتين الفئتين تم تقسيم الأشياء الحية إلى فئتين بشرية وغير بشرية، وتم تصنيف الأشياء الغير حية على أنها قابلة للكسر والأكل. وهذا يشير إلى أن الشبكة لديها القدرة على تعلم التفسيرات التسلسلية.

وأشار كذلك إلى أنه يمكن تمثيل الكلمات كنقاط في مساحة عالية الأبعاد، ثم يمكن اعتبار تسلسل من الكلمات أو الجمل كمسار. هذا الانقلاب الرئيسي يتيح ترقيم وتجهيز مجموعات البيانات النصية بواسطة الحواسيب.

المصدر: http://3b1b.co/neural-networks

في عام 2011، قام باحثو Confluence بتدريب شبكات أكبر تشمل آلاف الخلايا العصبية وملايين الاتصالات، وتم العثور على عائق في الدراسة في قدرة الشبكة على الحفاظ على سياق مترابط عبر تسلسلات طويلة.

في عام 2017، قامت OpenAI بالاعتماد على عمل كاثي من خلال التدريب على 82 مليون تقييم على أمازون تم اكتشاف الخلايا العصبية العاطفية فيها. هذه الخلايا العصبية تصنف العواطف في النص بشكل مثالي.

المصدر: تعلم كيفية إنشاء التقييمات واكتشاف المشاعر

بالنسبة لقيود حجم السياق، يقدم هذا الورق العلمي Attention Is All You Need لعام 2017 حلاً. يقوم الورق العلمي بإنشاء شبكة طبقات ديناميكية تكيف أوزان الاتصال بناءً على سياق الشبكة. يعمل عن طريق السماح لكلمات الإدخال بعرض ومقارنة كلمات أخرى، والعثور على الأكثر صلة. كلما كانت هذه الكلمات قريبة في المفهوم، كلما كانت أقرب في المكان ويمكن أن تكون لها أوزان اتصال أعلى. ومع ذلك، تركزت الورقة العلمية فقط على مشكلة الترجمة.

وهكذا حاول باحثو OpenAI تجربة بنية محول أكثر قوة وأطلقوا GPT-3 في عام 2020، الأمر الذي جذب انتباها واسعاً من الصناعات في جميع أنحاء العالم، هذه المرة مع الشبكة وصولها إلى 175 مليار معلمة، 96 طبقة، ونافذة سياق بحدود 1,000 كلمة.

ما هي الشبكة العصبية؟

خذ الصورة الرقمية ذات الأبعاد 28x28 بكسل كمثال، حيث تتوافق الخلايا العصبية مع كل بكسل من الصورة الرقمية ذات الأبعاد 28x28، مما يؤدي إلى وجود 784 خلية عصبية، والأرقام في الخلايا العصبية تمثل قيم التنشيط، التي تتراوح بين 0-1.

صورة رقمية بحجم 28x28 بكسل، المصدر: http://3b1b.co/neural-networks

هذه الخلايا العصبية 784 تشكل طبقة الإدخال للشبكة. الطبقة النهائية هي الطبقة الناتجة، التي تحتوي على عشرة خلايا عصبية تمثل الأرقام من 0 إلى 9، مرة أخرى بقيم تنشيط تتراوح من 0 إلى 1. الطبقة الوسطى هي الطبقة الخفية، حيث تحدد قيمة التنشيط للطبقة السابقة قيمة التنشيط للطبقة التالية أثناء عمل الشبكة العصبية.

عمق التعلم العميق يكمن في حقيقة أن النموذج يتعلم العديد من "الطبقات" من التحويلات، كل منها له تمثيل مختلف. كما هو موضح في الشكل أدناه، على سبيل المثال، في 9، يمكن للطبقات المختلفة التعرف على ميزات مختلفة. كلما كانت طبقة الإدخال أقرب إلى المستوى الأدنى من التفاصيل للبيانات، كلما كانت طبقة الإخراج أقرب إلى المفاهيم الأكثر تحديدًا التي يمكن استخدامها للتمييز.

المصدر: http://3b1b.co/neural-networks

مع تزايد حجم النموذج، تشمل الطبقات الخفية في الوسط مئات مليارات الأوزان لكل طبقة، وهذه الأوزان والانحيازات هي التي تحدد حقًا ما يقوم به الشبكة بالفعل. عملية التعلم الآلي هي عملية العثور على المعلمات الصحيحة، والتي تشمل الأوزان والانحيازات.

تستخدم تركيبة المحول الموجودة في GPT، وهو نموذج لغوي كبير، طبقة مخفية وسيطة تتكون من 96 طبقة من وحدات فك الترميز، حيث تحتوي GPT1 وGPT2 وGPT3 على 12 و48 و96 طبقة على التوالي. يحتوي فك الترميز بدوره على مكونات الانتباه وشبكات العصب العصبي للردود المباشرة.

طريقة التدريب

ينطوي عملية الحساب أو التعلم على تحديد وظيفة التكلفة (أو وظيفة الخسارة) التي تجمع بين مربعات الاختلافات بين توقعات الإخراج المحسوبة للشبكة والقيم الفعلية، وعندما يكون المجموع صغيرًا، يعمل النموذج ضمن الحدود المقبولة.

يبدأ التدريب عن طريق تعيين معلمات الشبكة عشوائيًا وتحديد معلمات النموذج النهائي للشبكة من خلال العثور على المعلمة التي تقلل من دالة التكلفة. الطريقة لتقارب دالة التكلفة هي عن طريق الانحدار التدريجي، حيث يتم فحص درجة تأثير كل تغيير في المعلمة على التكلفة/الخسارة، ثم يتم ضبط المعلمات وفقًا لتلك الدرجة من التأثير.

عملية حساب تدرج المعلمة تقدم توجيهًا للخلف أو الانتشار العكسي، الذي يعبر عن الشبكة من طبقة الإخراج إلى طبقة الإدخال بترتيب عكسي وفقًا لقاعدة السلسلة. كما يتطلب الخوارزمية تخزين أي متغيرات وسيطة (مشتقات جزئية) مطلوبة لحساب التدرج.

عوامل التطوير

هناك ثلاثة عوامل رئيسية تؤثر على أداء نماذج اللغة الكبيرة للذكاء الاصطناعي أثناء تدريبها، وهي عدد معلمات النموذج، حجم مجموعة البيانات، وكمية الحسابات.

المصدر: تقرير OpenAI، قوانين التحجيم لنماذج اللغة العصبية

هذا متسق مع تطوير مجال البيانات والحواسيب (طاقة الحساب) في الواقع، لكن يمكن أيضًا رؤيته في الجدول أدناه أن طاقة الحساب تنمو بشكل أسرع من البيانات المتاحة، بينما تعتبر الذاكرة هي الأبطأ في التطور.

تطوير مجموعة البيانات والذاكرة وقوة الحساب، المصدر: https://github.com/d2l-ai

البيانات

متطلبات البيانات

في مواجهة نموذج كبير، يميل الإفراط في التدريب إلى حدوث عندما تكون البيانات التدريبية صغيرة جدًا، وبشكل عام، تتحسن دقة النموذج المعقد أكثر مع زيادة كمية البيانات. بالنسبة لمتطلبات البيانات اللازمة لنموذج كبير، يمكن اتخاذ القرار بناءً على قاعدة الـ 10، التي تقترح أن يكون حجم البيانات 10 مرات البرميتر، ولكن بعض خوارزميات التعلم العميق تطبق نسبة 1:1.

البيانات المصنفة

يتطلب التعلم الإشرافي استخدام مجموعات بيانات مصنفة + مميزة للوصول إلى نتائج صحيحة.

المصدر: مجموعة بيانات تصنيف ملابس Fashion-MNIST

البيانات الاصطناعية

على الرغم من الزيادة السريعة في البيانات خلال العقدين الماضيين وتوافر مجموعات البيانات مفتوحة المصدر مثل Kaggle و Azure و AWS و Google database وغيرها، إلا أن كميات البيانات المحدودة والنادرة والمكلفة تصبح تدريجياً زيادة صعوبة لتطوير الذكاء الاصطناعي بسبب مشاكل الخصوصية وزيادة معلمات النموذج وإعادة إنتاج البيانات. تم اقتراح حلول بيانات مختلفة بهدف التخفيف من هذه المشكلة.

قد تكون تقنيات تعزيز البيانات حلاً فعالًا من خلال توفير بيانات غير كافية للنموذج دون الحصول على عينات جديدة، مثل التحجيم، الدوران، الانعكاس، القص، الترجمة، إضافة ضوضاء جاوسية، الخلط، إلخ.

البيانات الاصطناعية هي خيار آخر. البيانات الاصطناعية هي البيانات التي يمكن توليدها بشكل اصطناعي عن طريق محاكاة الكمبيوتر أو الخوارزميات مع أو بدون مجموعة بيانات مرجعية سابقة. فيما يتعلق بتطوير الأدوات لتوليد البيانات الاصطناعية، اخترع إيان ج. غودفيلو الشبكة الجنائية التوليدية (GAN)، وهي بنية تعلم عميق.

تدرب شبكتين عصبيتين على المنافسة مع بعضهما البعض والتي يمكن أن تولد بيانات جديدة وأكثر واقعية من مجموعة بيانات التدريب المعطاة. تدعم الهندسة المعمارية إنشاء الصور، وملء المعلومات المفقودة، وإنشاء بيانات تدريب لنماذج أخرى، وإنشاء نماذج ثلاثية الأبعاد استنادًا إلى البيانات ثنائية الأبعاد، والمزيد.

ما زال الأمر مبكرًا في تطوير المجال، حيث تم تأسيس معظم الشركات الحالية التي تقوم بإنتاج البيانات الاصطناعية في عام 2021 أو 2022، وبعضها في عام 2023.

حالة تمويل شركات البيانات الاصطناعية. المصدر: https://frontline.vc/blog/synthetic-data/

قاعدة بيانات الفيكتور

ينطوي عملية تدريب الذكاء الاصطناعي على عدد كبير من عمليات المصفوفات، بدءًا من تضمين الكلمات ومصفوفة تحويل QKV، وصولاً إلى عمليات softmax، وهكذا من خلال عمليات المصفوفات، يتم حمل معلمات النموذج بأكملها أيضًا في المصفوفة.

مثال على قاعدة بيانات الفيكتور، المصدر: https://x.com/ProfTomYeh/status/1795076707386360227

موارد الأجهزة الحاسوبية

النماذج الكبيرة تجلب طلبًا هائلًا على أجهزة الكمبيوتر، والتي تُصنَّف في الأساس بين التدريب والاستدلال.

التدريب المسبق، ضبط الدقة، والاستدلال

يمكن تقسيم التدريب المسبق وضبط الدقة إلى فئة تحت التدريب. كما ذُكر سابقًا، يتطلب بناء نموذج الشبكة تهيئة المعلمات بشكل عشوائي أولاً، ثم تدريب الشبكة وضبط المعلمات باستمرار حتى تصل خسارة الشبكة إلى نطاق مقبول. الفرق بين التدريب المسبق وضبط الدقة هو أن

يبدأ التدريب التمهيدي مع كل طبقة من المعلمات من التهيئة العشوائية، بينما يمكن استخدام بعض طبقات التحسين الدقيق مباشرة مع معلمات النموذج المدرب سابقًا كمعلمات تهيئة لهذه المهمة (تجميد معلمات الطبقات السابقة) والتأثير على مجموعة بيانات محددة.

المصدر:https://d2l.ai/chapter_computer-vision/fine-tuning.html

التدريب المسبق وضبط الدقة ينطويان على تغييرات في معلمات النموذج، مما يؤدي في نهاية المطاف إلى تحسين النموذج أو المعلمة، في حين أن التستخدام هو حساب التستخدام بعد تحميل النموذج بعد إدخال المستخدم والحصول في نهاية المطاف على ردود الفعل والنتائج النهائية.

التدريب المسبق وضبط الدقة والاستنتاج تتصنف من الأكبر إلى الأصغر من حيث متطلبات الحاسوب الخاصة بها. يقارن الجدول التالي متطلبات أجهزة الحاسوب لعمليات التدريب والاستنتاج. تختلف متطلبات أجهزة الحاسوب للتدريب والاستنتاج بشكل كبير من حيث الطاقة الحسابية والذاكرة والاتصال/النطاق الترددي بسبب الاختلافات في عملية الحساب ومتطلبات الدقة، وفي نفس الوقت هناك تناقض لا يمكن حله في الطاقة الحسابية والذاكرة والاتصال/النطاق الترددي.

تعتمد قياسات الإحصاء في هذا الجدول على نموذج واحد يعالج رمزًا واحدًا ومعلمة واحدة. FLOPs: العمليات العائمة لكل ثانية، عدد عمليات الرياضيات المصفوفة.
*DP، TP، PP: توازي البيانات، توازي التنسور، توازي الأنابيب.

مقارنة أجهزة الكمبيوتر بين التدريب والاستدلال، المصدر: منظمة من قبل هاشكي كابيتال

عملية تدريب الشبكة العصبية تتطلب التناوب بين الانتشار الأمامي والخلفي، باستخدام التدرج الذي يتم توفيره من خلال الانتشار الخلفي لتحديث معلمات النموذج. أما التستخدام، فهو يتطلب فقط الانتشار الأمامي. تصبح هذه الفارقة عاملاً مؤثرًا يميز بشكل رئيسي متطلبات موارد أجهزة الكمبيوتر الخاصة بتدريب النماذج والتستخدام.

من حيث قوة الحساب، كما هو موضح في الجدول، هناك علاقة ضربية بسيطة بين عدد معلمات النموذج واستهلاك قوة الحساب، حيث يتطلب التدريب 6-8 عمليات عائمة ويتطلب التستخدم 2. ويرجع ذلك إلى الانتشار الخلفي المشارك في التدريب، الذي يتطلب ضعف قوة الحساب مقارنة بالانتشار الأمامي، وبالتالي فإن استهلاك قوة الحساب للتدريب أعلى بكثير من التستخدم.

من حيث الذاكرة، يعيد استخدام الانتشار العكسي المستخدم للتدريب القيم الوسيطة المخزنة في الانتشار الأمامي من أجل تجنب الحسابات المتكررة. لذلك، يحتاج عملية التدريب إلى الاحتفاظ بالقيم الوسيطة حتى يتم الانتهاء من الانتشار العكسي. يحتوي الاستهلاك الناتج عن الذاكرة أثناء التدريب بشكل رئيسي على معلمات النموذج، القيم النشطة الوسيطة التي تم إنشاؤها خلال الحساب الأمامي، الميل الناتج عن حساب الانتشار للخلف، وحالات المحسن. لا تحتاج مرحلة الاستدلال إلى الانتشار العكسي، ولا تحتاج إلى حالة المحسن والميل، وما إلى ذلك، واستخدام الذاكرة الخاصة بها أصغر بكثير من ذلك خلال التدريب.

من حيث الاتصال / النطاق الترددي، من أجل تحسين أداء تدريب الذكاء الاصطناعي، يستخدم تدريب النموذج الرئيسي عادة ثلاث استراتيجيات موازية: موازاة البيانات، وموازاة التحويل، وموازاة الأنابيب.

  • تتعلق الموازاة البيانية بتكرار النماذج المتعددة التي تعمل على أجهزة مختلفة، مع كل نموذج يعمل على مجموعات بيانات مختلفة، ومزامنة بيانات التدرج خلال دورة التدريب.
  • على الجانب الآخر، يقسم التوازي الأنابيب الطبقات الخفية الوسيطة ويكون كل عقد حسابي مسؤولاً عن عدة من هذه الطبقات المحولة. يُعرف هذا النهج أيضًا باسم التوازي بين الطبقات.
  • التوازي التوتري، من ناحية أخرى، يقسم كل وحدة من وحدات التحويل هذه ويُعرف أيضًا باسم التوازي داخل الطبقة.

المصدر: OpenAI، https://openai.com/index/techniques-for-training-large-neural-networks/

بالنسبة لهذه الاستراتيجيات الثلاث، يُتوقع أن تكون ترددات الاتصال TP الأكبر، وأن يكون حجم الاتصال الأعلى، ويتعلق بعدد الرموز، وعرض النموذج، وعدد الطبقات. يكون حجم الاتصال وتردد PP أصغر من ذلك في TP، ويتعلق بعدد الرموز، وعرض النموذج. أما حجم الاتصال وتردد DP فيكون الأصغر وغير مرتبط بالرموز الداخلية.

التثليمة المستحيلة

إن عنق الزجاجة لموارد أجهزة الكمبيوتر في النماذج الكبيرة محدود بشكل أساسي بقدرة الحوسبة وعرض النطاق الترددي / الاتصال والذاكرة ، وهناك ضوابط وتوازنات بين الثلاثة ، مما يؤدي إلى مشكلة المعضلة الثلاثية المستحيلة. على سبيل المثال ، بسبب اختناقات الاتصال ، لا يمكن تحسين أداء نظام المجموعة ببساطة عن طريق تحسين قوة جهاز كمبيوتر واحد.

لذلك ، على الرغم من استخدام البنى المتوازية لتسريع أداء الكتلة ، فإن معظم البنى المتوازية تضحي في الواقع بالاتصال أو التخزين من أجل قوة الحوسبة.

التضحية بالاتصال والتخزين من أجل قوة الحوسبة:

في PP، إذا تم تعيين وحدة معالجة الرسومات لكل طبقة من المحولات، على الرغم من زيادة الطاقة الحسابية في وحدات الزمن، فإن متطلبات الاتصال بين الطبقات تزداد أيضًا، مما يؤدي إلى زيادة حجم البيانات وزمن الانتظار. بالإضافة إلى ذلك، فإن متطلبات تخزين الحالة الوسيطة لانتشار الإشارة الأمامية تزيد بسرعة كبيرة للغاية.

التضحية بالاتصال من أجل قوة الحوسبة:

في TP، يتم تفكيك كل محول للحوسبة المتوازية. نظرًا لأن المحول يتكون من جزئين (رأس الانتباه والشبكة التغذية الأمامية)، يمكن تقسيم المهمة داخل الطبقة إما لرأس الانتباه أو الشبكة العصبية التغذية الأمامية. يمكن أن يخفف هذا النهج TP من مشكلة التسلسل الهرمي الزائد بسبب عدم قدرة وحدات المعالجة المركزية الرسومية على تناسب النموذج. ومع ذلك، لا يزال لهذا النهج عبء اتصال جدي serious.

مجال العملات الرقمية+الذكاء الاصطناعي

نعتقد في هذا الورقة أنه حاليًا هناك الفئات الرئيسية التالية من الذكاء الاصطناعي في مجال العملات الرقمية:

المصدر: منظم بواسطة هاشكي كابيتال

كما ذكر سابقًا، تعتبر البيانات والنماذج والطاقة الحاسوبية الثلاثة العناصر الأكثر أهمية في مجال الذكاء الاصطناعي، والتي تعتبر البنية التحتية التي تمكن AI في مجال العملات الرقمية.

تحدث تلك الجمعية فعلا عن تشكيل شبكة حوسبة، مع ظهور عدد كبير من البرامج الوسيطة في عملية الحساب من أجل أن تكون فعالة وأكثر توافقا مع روح العملات الرقمية. فيما بعد، تعتمد الوكالات على هذه النتائج التي يمكن التحقق منها، والتي يمكن أن تخدم أدوارا مختلفة لجماهير المستخدمين المختلفة بشكل أفضل.

يمكن استخدام مخطط تدفق آخر للتعبير عن البيئة الأساسية للذكاء الاصطناعي الرقمي على النحو التالي:

الرسم التوضيحي البيئي، المصدر: منظم بواسطة HashKey Capital

بالطبع، تحتاج آليات الرموز الرقمية في مجال العملات الرقمية إلى تحفيز تنسيق مشاركة اللاعبين المختلفين.

البيانات

بالنسبة لمجموعات البيانات، يمكن للشخص اختيار بين مصادر البيانات العامة أو مصادر البيانات الخاصة الخاصة به.

مصدر البيانات:

  • Grass هو المشروع الذي يزحف على مصادر البيانات في أعلى سولانا، يعود السبب في ذلك إلى حقيقة أن العديد من الشركات تحظر زحف عناوين IP من مراكز البيانات ولكن لا تحظر مستخدمي الإقامة، تعمل Grass كمزود خدمة لامركزي يحفز مستخدمي الإقامة على المساهمة بعرض النطاق الترددي الخاص بهم من خلال رمز.
  • توفر Vana بصفتها DATA DAO أيضًا حلاً خاصًا بها، حيث يقوم الخالق بإنشاء DATA DAO مختلفة لمصادر البيانات المختلفة على السلسلة وإعداد برامج حوافز مختلفة للمستخدمين لتحميل بياناتهم. حتى الآن، تم إنشاء DATA DAO ل reddit (rDAO) حيث يقدم أكثر من 154,000 مستخدم بياناتهم الشخصية إلى rDAO لتدريب الذكاء الاصطناعي.
  • يتم جمع البيانات ذات الصلة في شكل DePINs، الذي يتيح للمستخدمين ربط مركباتهم بمنصة DIMO عبر جهاز أجهزة، على سبيل المثال. سيتم نقل المعلومات الأساسية حول تلك المركبة وبيانات نمط القيادة المتقدمة أكثر، وما إلى ذلك بشكل آمن إلى شبكة DIMO، وتخزينها على سلسلة الكتل، وربطها بمعرف المركبة المقابل (NFT). ومن الأمثلة الأخرى Hivemapper الذي يجمع بيانات الخريطة أثناء قيادة المستخدم.

منصة بيانات اصطناعية:

  • دريا هي منصة لتوليد البيانات الاصطناعية (OPStack L2) التي تحفز المستخدمين على توليد / تداول البيانات الاصطناعية بطريقة لامركزية. تتم تخزين بياناتها في Arweave من خلال HollowDB. عندما يبدأ المستخدمون طلب توليد بيانات اصطناعية، ستقبل دريا الطلب وتقسم المهمة إلى العقد الحسابية في شبكة البيانات الاصطناعية لتنفيذها، وبعد التحقق من الشبكة، يمكن تداول البيانات الاصطناعية النهائية في سوق المعرفة.

الآخرين:

منصة خدمة تسمية البيانات، من خلال تعيين مهمة طلب التسمية لعمال مختلفين، يمكن لهؤلاء العمال الحصول على حافز الرمز المقابل بعد إكمال المهمة مثل كريبو، الذكاء العام وهكذا. ومع ذلك، المشكلة الحالية هي أن هناك المزيد من الأشخاص القيام بتسمية البيانات من البيانات، في حين أن لدى شركات الذكاء الاصطناعي موردين مستقرين لتسمية بياناتهم المُسمّاة، بسبب الوجود اللزج الذي يجعل عزمهم على التحول إلى منصات مركزية ضعيف. قد تكون هذه المنصات قادرة فقط على الحصول على تخصيص الجزء المتبقي من الطلب من موردي تسمية البيانات.

شبكات الحوسبة

شبكات الحوسبة المتعممة

شبكات الحوسبة المعممة، والتي تشير إلى الشبكات التي تجمع بين موارد مثل وحدات المعالجة الرسومية ووحدات المعالجة المركزية لتكون قادرة على توفير خدمات الحوسبة المعممة التي تعني عدم وجود تمييز بين التدريب والاستنتاج.

  • أكاش، مشروع عام 2020، يعمل كسوق لمطابقة العرض والطلب الحسابي، مما يتيح لمزودي الحوسبة المزايدة على الطلبات، مع تحميل التطابقات النهائية على البلوكشين كمعاملات. محقق منفصل مسؤول عن تعبئة الكتل وأداء التحقق. هذه العملية لا تشمل كيفية تخصيص مهام الذكاء الاصطناعي، ولا تقوم بالتحقق من عملية الحساب، والنتائج، دون التمييز بين التدريب والاستدلال.
  • اكتشفت io.net، التي وصلت إلى يونيو 2022 في تطوير نظم التداول الكمي عالية المستوى بشكل أساسي لسوق الأسهم الأمريكية وأسواق العملات المشفرة، Ray.io، وهو مكتبة Python مفتوحة المصدر لبناء أنظمة موزعة عالية الأداء. يستفيد io.net من Ray والمكتبات المتخصصة لتدفق البيانات والتدريب وضبط الدقة، ويجمع مع شبكات الـ Mesh VPNs (التي تبسط عملية تطوير ونشر نماذج الذكاء الاصطناعي على نطاق واسع من وحدات المعالجة الرسومية) لتوفير خدمات الحسابات.
  • بيتينسور، كمنصة مفتوحة، تسمح للمستخدمين بإنشاء شبكات فرعية على منصتها، كل شبكة فرعية لها حوافز فريدة لتحفيز المستخدمين الآخرين على المشاركة كمنقبين في الشبكة الفرعية، ومقدمين خدمة التحقق في تشغيل المهام الخاصة، ومقدمين خدمة التحقق في تحقق مهام هؤلاء المنقبين.
  • أيثر، هو بنية الحوسبة السحابية التي توفر خدمات عالية الجودة للذكاء الاصطناعي وألعاب الفيديو السحابية. يركز أيثر على تجميع موارد وحدة المعالجة الرسومية عالية الجودة، مثل رقاقة NVIDIA H100، من مراكز البيانات، وشركات التكنولوجيا، وشركات الاتصالات، وأهم استوديوهات الألعاب، وشركات تعدين العملات الرقمية. تتكون الشبكة من 3 جهات أساسية: الحاوية، والفاحص، والفهرس. الحاويات، بما في ذلك حافة أيثر، هي المكان الذي يتم فيه فعليا استخدام موارد الحوسبة. يضمن الفاحص سلامة وأداء الحاوية. إذا لزم الأمر، يقوم الفهرس بمطابقة المستخدمين النهائيين مع الحاويات المناسبة استنادًا إلى متطلبات المستخدم النهائي.

شبكات محددة للحوسبة

التدريب المسبق

في مساحة Crypto ، تقترح Gensyn ، المستثمرة من قبل a16z ، شبكة حوسبة تدريب لامركزية.

العملية تتمثل في أنه بعد أن يقدم المستخدم مهمة متطلبات التدريب، تقوم المنصة بتحليلها، وتقييم الطاقة الحسابية المطلوبة وتقسيمها إلى أدنى عدد من أعمال ML، وفي هذه النقطة يقوم المحقق بشكل دوري بالتقاط المهمة المحللة لتوليد عتبات لمقارنة أدلة التعلم النزولي.

بمجرد أن يدخل المهمة مرحلة التدريب، يتم تنفيذها بواسطة الحلال، الذي يخزن بشكل دوري وزن النموذج وفهارس الاستجابة من مجموعة بيانات التدريب بالإضافة إلى إنشاء الأدلة التعلمية، ويقوم المحقق أيضًا بأداء العمل الحسابي بإعادة بعض الأدلة لأداء حسابات المسافة للتحقق من مطابقتها للأدلة. يقوم المبلغون على أساس الوسيط ببرنامج تحدي محدد بواسطة الرسوم البيانية للتحقق مما إذا كان العمل التحقق تم بشكل صحيح.

ضبط دقيق

يعد الضبط الدقيق أسهل وأقل تكلفة في التنفيذ من التدريب المسبق المباشر لنموذج كبير ، وذلك ببساطة عن طريق ضبط النموذج المدرب مسبقا بمجموعة بيانات محددة ، وتكييف النموذج مع مهمة محددة مع الحفاظ على النموذج الأصلي.

يمكن الوصول إلى Hugging Face كموفر لمورد نموذج اللغة المدرب مسبقًا على المنصة الموزعة، حيث يختار المستخدم النموذج الذي يجب ضبطه وفقًا لمتطلبات المهمة ثم يستخدم وحدات المعالجة الرسومية والموارد الأخرى المقدمة من شبكة الحوسبة لضبط المهمة، الأمر الذي يحتاج إلى الاعتماد على تعقيد المهمة لتحديد حجم مجموعة البيانات، وتعقيد النموذج، وتحديد الحاجة إلى مستوى أعلى من الموارد مثل A100.

بالإضافة إلى Gensyn، وهي منصة يمكنها دعم التدريب المسبق، يمكن أيضًا لمعظم منصات الحوسبة دعم ضبط الدقة.

استنتاج

بالمقارنة مع التدريب (التدريب الأولي وضبط الدقة) الذي يتطلب ضبط معلمات النموذج، ينطوي العملية الحسابية للاستنتاج فقط على التوجيه إلى الأمام ويتطلب قدرًا أقل من القدرة الحاسوبية. معظم شبكات الحوسبة اللامركزية حاليا تركز على خدمات الاستنتاج.

  • شبكة نوسانا هي منصة لتشغيل أعباء العمل الذكي التي توفر خدمات الحوسبة المستهدفة لعملية الاستنتاج لنماذج LLama 2 وStable Diffusion.
  • Ritual.AI، المرحلة الأولى من المنصة هي Infernet وهو إطار خفيف. باستخدامه يمكن لمطوري العقود الذكية طلب خدمات الاستنتاج من خارج السلسلة وتقديمها إلى العقود الذكية على السلسلة. المرحلة الثانية هي طبقة التنفيذ، سلسلة Ritual، التي تدعم العمليات الأصلية للذكاء الاصطناعي.

طبقات / وسيطة إضافية

عندما يتم إجراء الاستدلال في هذه المرحلة، فإنها بالفعل تكون مرحلة استخدام النموذج، ثم يمكن إدخال الوسيط في الوقت المناسب:

  • تطابق النموذج: عند إجراء التمثيل، من الضروري عادة تحديد النموذج المناسب وفقًا لمتطلبات المهمة.
  • API: تجميع جميع واجهات برمجة التطبيقات لنماذج المصدر المفتوحة، مثل Redpill

عقد ذكي على السلسلة لاسترداد نتائج الحوسبة الذكية خارج السلسلة:

  • بروتوكول ORA لتوفير نتائج استدلال موثقة لعقود ذكية، على سبيل المثال، يقوم العقد opML بجمع طلبات opML المرسلة من السلسلة، ثم يقوم بتشغيل استدلال الذكاء الاصطناعي، ومن ثم يقوم بتحميل النتائج إلى السلسلة وينتظر فترة التحدي.

يمكن إضافة طبقة أخرى من الخصوصية إلى شبكة الحوسبة، تشمل بشكل رئيسي الخصوصية في البيانات والخصوصية في النموذج، حيث تكون خصوصية البيانات أهم بكثير من خصوصية النموذج.

  • حاليًا، يستخدم بروتوكول Oasis Intel TDX و NVIDIA TEEs لتوفير الخصوصية والقابلية للتحقق لتدريب نماذج الذكاء الاصطناعي.

التحقق

معظم شبكات الحوسبة تبني أنظمة تحقق مختلفة لضمان تشغيل النظام بدقة، في حين أن الرابط هو جزء لم يتم تقديمه بعد في مجال الذكاء الاصطناعي التقليدي.

ZKML

الدور الرئيسي لإثبات ZK هو النقطتين التاليتين:

  • يُستخدم لإثبات دقة النموذج دون الكشف عن أي معلمات
  • أثبت أن الحساب تم بشكل صحيح وأن النموذج + المدخلات تتطابق مع النواتج: Modulus labs، Giza

أظهرت Modulus Labs أنه من الممكن إنشاء براهين ل 18 مليون نموذج معلمة في 60-70 ثانية باستخدام نظام إثبات Plonky من Polygon. بالنسبة للطرز الصغيرة ، من الممكن استخدام ZKML في هذه المرحلة ، لكن التكلفة لا تزال كبيرة:

  • وقت إثبات ZKML ينمو مع زيادة المعلمات.
  • إنها مكلفة جدًا من حيث استهلاك ذاكرة البروف المستخدم. على سبيل المثال، تستخدم Worldcoin نموذجًا يحتوي على 1.8 مليون معلمة و 50 طبقة للتمييز بين 10 مليار قزحية، حيث يمكن إنشاء دلائل الاستدلال في بضع دقائق فقط، ولكن استهلاك الذاكرة داخل البروف يعتبر مرتفعًا جدًا بالنسبة لأي عتاد محمول.

المصدر: @ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307"">https://medium.com/@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307

OPML

نظرًا للقيود المفروضة على ZKML المذكورة أعلاه، فإن OPML هو بديل. على الرغم من أنه أضعف من ZKML من حيث الأمان، إلا أن استهلاك الذاكرة ووقت حساب البرهانات فيه أفضل بشكل كبير من ذلك في ZKML. ووفقًا لتقرير ORA، فقد تبين أنه يمكن معالجة نموذج 7B-LLaMA نفسه (بحجم نموذج يبلغ حوالي 26 جيجابايت) في OPML داخل 32 جيجابايت من الذاكرة، بينما يمكن أن يكون استهلاك الذاكرة للدوائر في zkML على مستوى تيرابايت أو حتى بيتابايت.

TEEML

توفير بيئة تنفيذ موثوق بها يوفر أمان على مستوى الأجهزة ويمكن أن يكون بديلاً ل ZKML و OPML. يتم إنشاء دليل TEE-proof نتيجة للحساب الداخلي داخل TEE وتكلفته الحسابية أقل بكثير من تلك التي تمليها zk-proof. كما أن حجم الدليل TEE عادة ما يكون ثابتًا (طول التوقيع) وبالتالي له ميزة بصمة أصغر وتكلفة أقل للتحقق على السلسلة.

بالإضافة إلى التحقق، يتمتع TEE بميزة الحفاظ على البيانات الحساسة معزولة، مما يضمن عدم تمكن العمليات الخارجية أو الحوسبة من الوصول إلى البيانات الداخلية أو تعديلها.

المشاريع التي تستخدم تقنية البيئة الموثوقة تشمل:

  • شبكة Aizel (توفير الاستدلال)
  • شبكة Phala (متخصصة في إنشاء وكلاء الذكاء الاصطناعي)
  • بروتوكول Oasia (تدريب النموذج الذكي)
  • بروتوكول مارلين (يمكن لـ Oyster نشر وتحقق من نماذج ML)

المصدر: https://arxiv.org/pdf/2401.17555,بروتوكول مارلين

بالإضافة إلى ذلك، قام بروتوكول ORA بتطوير opp/ai (Optimistic Privacy-Preserving AI on Blockchain) بالإضافة إلى العلامات التجارية الخاصة به من التحقق ZKML و OPML، وليست مدرجة في الجدول المقارن أعلاه.

طبقة الوكيل

الوكيل لديه القدرة على تحليل المعلومات الواردة، وتقييم الظروف البيئية الحالية واتخاذ القرارات. يُظهر تكوين الوكيل في الشكل التالي، حيث يُعتبر LLM المكون الأساسي، بالإضافة إلى ضرورة تغذية التعليمة المناسبة إلى LLM، ومن خلال الذاكرة لتخزين البيانات القصيرة الأجل والبيانات القديمة طويلة الأجل (البيانات الخارجية).

نظرًا لأن المهام المعقدة لا يمكن إكمالها دفعة واحدة، فإنها تحتاج إلى تقسيمها إلى مهام أصغر من قبل Plan، بالإضافة إلى أن الوكيل يمكنه أيضًا استدعاء واجهات برمجة التطبيقات الخارجية للحصول على معلومات إضافية، بما في ذلك المعلومات الحالية، وإمكانيات تنفيذ الكود، والوصول إلى مصادر المعلومات الخاصة، وما إلى ذلك.

المصدر: استطلاع حول وكلاء مستقلين معتمدين على نماذج لغوية كبيرة

لم يكن لقدرة الوكلاء على اتخاذ القرار اختراق معين حتى ظهور نموذج اللغة الكبيرة LLM في السنوات الأخيرة. قام تقرير بتجميع عدد الأوراق المنشورة على الوكلاء من 2021 إلى 2023 ، كما هو موضح في الشكل أدناه ، في الواقع لا يوجد سوى حوالي اثنتي عشرة ورقة بحثية في عام 2021 ، ولكن هناك مئات الأوراق المنشورة عليها في عام 2023. صنفت الورقة وكلاءها إلى 7 فئات.

المصدر: استطلاع حول وكلاء مستقلين يعتمدون على نماذج لغوية كبيرة

في web3، تظل السيناريوهات التي توجد فيها الوكلاء محدودة مقارنة بعالم web2، وتشمل حاليًا التخليص التلقائي، بناء مكونات الشيفرة (كتابة عقود ذكية، كتابة دوائر zk)، التحكم في المخاطر في الوقت الحقيقي، وتنفيذ استراتيجيات مثل التحكم الأمثل وزراعة العائد.

إنشاء الوكيل ومنصات التداول

  • قدم Theoriq (ChainML) مفهوم طبقة الوكيل الأساسي، الذي يسمح للمطورين بتعليق الوكلاء في شكل NFT وإنشاء وكلاء خاصين بهم، فضلا عن بناء جماعة وكلاء عن طريق دمج الوكلاء لتحقيق متطلبات معقدة. يقوم هذا العملية بتقييم أداء وربط وكلاء مختلفين من خلال دليل المسؤولية ودليل التعاون.
  • لدى شركة سبيكترال لابز منتجان رئيسيان، وهما سبيكترال سينتاكس، وهي منصة تمكن المستخدمين من إنشاء وكلاء على السلسلة، وسبيكترال نوفا، وهي خدمة استنتاج تدعم طلب خدمات الاستنتاج. إن إنشاء وكيل في سبيكترال سينتكس يستخدم خدمة الاستنتاج في سبيكترال نوفا، ويتم ضمان ذلك الاستنتاج بواسطة دليل ZK للتأكد من أنه يعمل. في الوقت نفسه، سيتم إطلاق إنفرتشين لتمكين التواصل بين الوكلاء.
  • تدعم Autonolas بناء الخدمات التي تتكون من عدة وكلاء، مما يتيح لمالك الخدمة إنشاء خدمة وتسجيل الخدمة المقابلة في سجل الخدمات من أجل بدء سير العمل، وطلب المطور لتوفير مكونات الوكيل وما إلى ذلك. يمكن للمطورين تطوير الوكيل، ومكوناته وغيرها من الشفرة المخزنة خارج السلسلة، وإنتاج NFT المقابلة على السلسلة، والإشارة إلى تجزئة IPFS للبيانات الوصفية، ثم الإشارة إلى الشفرة الأساسية من خلال الإشارة إلى تجزئة IPFS بشكل إضافي. تعمل الخدمات عادةً بواسطة مجموعة من المشغلين، يعمل كل منهم على الأقل بنسخة واحدة من الوكيل. بالإضافة إلى ذلك، تحقق Autonolas اتفاقًا داخل الخدمة بين وكلائها من خلال جهاز Consensus الذي ينشئ اتفاقًا بين الوكلاء داخل الخدمة.

منصة مراقبة الوكلاء

  • AgentOpsAI هو شريك للذكاء الواعي، يقدم خدمات مراقبة الوكيل (سجل الأحداث، المكالمات، أخطاء الوكيل، إلخ)، حالياً منصة مركزية، لا توجد عملة مشاركة.

مجال العملات الرقمية

بناءً على وكلاء مختلفين يمكن تجميعهم / تجريدهم / إنشاؤهم تطبيق محدد، في الوقت نفسه، هناك بعض منصات التنسيق المتاحة للمستخدمين لاختيار نوع الوكلاء لاستخدامه في بناء نوع معين من التطبيق. ولكن معظمها مقصورة على تطوير الوكلاء.

تطبيق

مطورو المشاريع

سيستخدم بعض المطورين بعض الذكاء الاصطناعي لمساعدة منصاتهم على أن تكون أكثر ذكاءً، على سبيل المثال، في مشاريع الأمان، يتم استخدام التعلم الآلي لتمييز ثغرات الهجوم؛ تستخدم بروتوكولات الديفي الذكاء الاصطناعي لبناء أدوات مراقبة في الوقت الحقيقي؛ وتستخدم منصات تحليل البيانات أيضًا الذكاء الاصطناعي للمساعدة في تنظيف البيانات والتحليل.

المستخدم

نافذة الأسئلة والأجوبة/التحليل

  • يمكن لمستخدمي Kaito.ai استخدام الأسئلة والأجوبة للحصول على معلومات حول مشاعر المجتمع تجاه المشروع والسعر وحركات الفريق الأساسي.
  • 0xScope، الاستخدام الأساسي للرسوم البيانية لدمج البيانات على السلسلة، وهي سمات السلوك للمستخدمين، لتوفير خدمات تحليل البيانات للمستخدمين، أطلق نافذة Scopechat للأسئلة والأجوبة في الوقت المناسب لهذه الموجة من الذكاء الاصطناعي.

متجر تطبيقات الذكاء الاصطناعي

  • يقترح Myshell طبقة استهلاكية ويقوم بإنشاء متجر تطبيقات الذكاء الاصطناعي، الذي يوفر مكونات ذكاء اصطناعي مختلفة وثلاثة أوضاع إنشاء لتسهيل إنشاء تطبيقات ذكاء اصطناعي مختلفة من قبل المستخدمين. تنقسم الودجت إلى مكونات أساسية ومركبة. تسمح المكونات الأساسية للمستخدمين بإدراج تعليمات، صوت، أفاتار وأصول أخرى في تطبيقات الذكاء الاصطناعي، بينما تسمح المكونات المركبة ببناء مكونات مخصصة باستخدام مجموعة من النماذج/المكونات الأساسية المتعددة. تتضمن أوضاع الإنشاء، الكلاسيكية، والتطوير، وبدون كود، ثلاثة أوضاع للمطورين والمستخدمين ذوي القدرات والاحتياجات المختلفة.

ملخص

في هذه المقالة، نود التركيز على النقاط الثلاث التالية:

  • GPUAI

في مجال العملات الرقمية، يظهر عدد من شبكات الحوسبة بشكل لا مفر منه يجعل المستخدمين يشعرون بأن وحدة معالجة الرسومات هي الذكاء الاصطناعي، ولكن كما تم تحليله في القسم السابق، هناك مثلث مستحيل من شبكات الحوسبة، أي الطاقة الحوسبة، والنطاق الترددي/الاتصال، والذاكرة، بالإضافة إلى ثلاثة أنواع من استراتيجيات التوازي المستخدمة في تدريب النماذج، مثل التوازي بالبيانات، والتوازي بالتينسور، والتوازي بالأنابيب، تشير جميعها إلى التوازنات المفروضة على إعداد إطار الشبكة الحوسبة.

  • نفس النموذج ونفس البيانات نفس النتيجة

السبب وراء حقيقة أن نفس النموذج والبيانات لا تسفر بالضرورة عن نفس النتيجة هو استخدام حساب الفاصلة العائمة. هذا الاختلاف في الحساب له أيضا تأثير على بناء شبكة الحوسبة.

  • المزيد من وكلاء الذكاء الاصطناعي

لم تبدأ العملاء الذكيون في إظهار المزيد من الفائدة إلا في السنوات الأخيرة، ونتوقع ظهور المزيد من العملاء في السوق. ولكن كيفية عمل العملاء في مجال العملات الرقمية أو كيفية العثور على حوافز الرموز الصحيحة لا تزال تشكل تحديًا.

تصريح:

  1. هذه المقالة مأخوذة من [وسيلة]، عنوان النص الأصلي "AI into Crypto"، حقوق النشر ملك للكاتب الأصلي[HashKey Capital ],如对转载有异议,请联系Gate Learn团队، سيتم معالجة الفريق بسرعة وفقا للعمليات ذات الصلة.

  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。

  3. النصوص الأخرى مترجمة إلى لغات أخرى من قبل فريق Gate Learn دون ذكربوابة.ايوفي هذه الحالة، لا يجوز نسخ أو نشر أو اقتباس المقال المترجم.

الذكاء الاصطناعي إلى التشفير

متوسط9/19/2024, 2:23:31 AM
أطلقت في نوفمبر 2022 وأفتتحت عيون العديد من لاعبي الصناعة إلى نموذج اللغة الكبيرة للذكاء الاصطناعي. هذا الديناميكية المتهورة اخترقت مجال العملات الرقمية، ويهدف هذا المقال إلى تقديم تطور الذكاء الاصطناعي، ووضعه الحالي، والصناعة التي نشأت من توافق الذكاء الاصطناعي والعملات الرقمية.

أدت إطلاق ChatGPT في نوفمبر 2022 إلى فتح أعين مختلف لاعبي الصناعة لنموذج لغة الذكاء الاصطناعي الكبير. انتشر هذا الديناميكية المتهورة في مجال العملات الرقمية، وتهدف هذه المقالة إلى تقديم تطور الذكاء الاصطناعي، ووضعه الحالي، والصناعة التي نشأت من تجميع الذكاء الاصطناعي+العملات الرقمية.

تطور الذكاء الاصطناعي ووضعه الحالي

أنواع وهندسيات

التعلم الآلي (ML) هو تقنية ذات قدرات تعلم تجريبية، تتعلم التمييز بين الحيوانات، وترجمة اللغة، ومهام أخرى محددة من خلال التعلم من مجموعات بيانات كبيرة. ينتمي التعلم الآلي إلى أكثر الطرق عملية لتحقيق الذكاء الاصطناعي في الوقت الحالي، وفقًا لما إذا كانت البيانات المتعلمة معلمة والميزات يمكن تقسيمها إلى التعلم الإشرافي والتعلم الغير إشرافي.

هناك العديد من أنواع النماذج التي يمكن أن تنجز التعلم الإشرافي، بما في ذلك النماذج القائمة على الأشجار، والنماذج الرسومية، والشبكات العصبية التي ظهرت مؤخرًا. مع التطور السريع لقوة الحوسبة والبيانات، تم تطوير التعلم العميق بناءً على هندسة الشبكات العصبية. تشمل الهندسات الحالية للتعلم العميق بشكل شائع، ولكن ليس محصورًا فيها، CNNs و RNNs وآليات الانتباه.

تصنيف التعلم الآلي، المصدر: هاشكي كابيتال

تختلف شبكات التعلم العميق في الهندسة المعمارية الأساسية لطبقة الإدخال والطبقة الخفية وطبقة الإخراج، حيث تكون الطبقة الإدخال عادة نصًا وفيديو وصوتًا، وبيانات أخرى بعد معالجتها بتقنية "الرمزية/التضمين". تحتوي الطبقة الخفية على تصميم مختلف (شكل النموذج) اعتمادًا على مجموعة البيانات وغرض المهمة، كما هو موضح في الجدول.

أنواع الشبكات العصبية، المصدر: منظمة بواسطة هاشكي كابيتال

ثلاثون عامًا من تطوير الشبكات العصبية

30 سنة من تطوير الشبكة العصبية، المصدر: منظم من قبل رأس المال هاشكي

بدأ تدريب الشبكات العصبية في منتصف الثمانينات من القرن الماضي عندما قام جوردان بتدريب شبكة عصبية لتعلم الأنماط التسلسلية في ورقته البحثية لعام 1986ترتيب سلسلة: نهج معالجة توزيعية موازية. كان لدى الشبكة الصغيرة فقط بضعة عصبونات.

في التسعينيات، قام جيفري إيرمان بتوسيع الشبكة العصبية إلى شبكة تحتوي على 50 خلية عصبية باكتشاف أن الشبكة تجمع الكلمات مكانيًا استنادًا إلى المعنى. على سبيل المثال، فقد فصلت بين الأسماء الغير حية والحية، وضمن هاتين الفئتين تم تقسيم الأشياء الحية إلى فئتين بشرية وغير بشرية، وتم تصنيف الأشياء الغير حية على أنها قابلة للكسر والأكل. وهذا يشير إلى أن الشبكة لديها القدرة على تعلم التفسيرات التسلسلية.

وأشار كذلك إلى أنه يمكن تمثيل الكلمات كنقاط في مساحة عالية الأبعاد، ثم يمكن اعتبار تسلسل من الكلمات أو الجمل كمسار. هذا الانقلاب الرئيسي يتيح ترقيم وتجهيز مجموعات البيانات النصية بواسطة الحواسيب.

المصدر: http://3b1b.co/neural-networks

في عام 2011، قام باحثو Confluence بتدريب شبكات أكبر تشمل آلاف الخلايا العصبية وملايين الاتصالات، وتم العثور على عائق في الدراسة في قدرة الشبكة على الحفاظ على سياق مترابط عبر تسلسلات طويلة.

في عام 2017، قامت OpenAI بالاعتماد على عمل كاثي من خلال التدريب على 82 مليون تقييم على أمازون تم اكتشاف الخلايا العصبية العاطفية فيها. هذه الخلايا العصبية تصنف العواطف في النص بشكل مثالي.

المصدر: تعلم كيفية إنشاء التقييمات واكتشاف المشاعر

بالنسبة لقيود حجم السياق، يقدم هذا الورق العلمي Attention Is All You Need لعام 2017 حلاً. يقوم الورق العلمي بإنشاء شبكة طبقات ديناميكية تكيف أوزان الاتصال بناءً على سياق الشبكة. يعمل عن طريق السماح لكلمات الإدخال بعرض ومقارنة كلمات أخرى، والعثور على الأكثر صلة. كلما كانت هذه الكلمات قريبة في المفهوم، كلما كانت أقرب في المكان ويمكن أن تكون لها أوزان اتصال أعلى. ومع ذلك، تركزت الورقة العلمية فقط على مشكلة الترجمة.

وهكذا حاول باحثو OpenAI تجربة بنية محول أكثر قوة وأطلقوا GPT-3 في عام 2020، الأمر الذي جذب انتباها واسعاً من الصناعات في جميع أنحاء العالم، هذه المرة مع الشبكة وصولها إلى 175 مليار معلمة، 96 طبقة، ونافذة سياق بحدود 1,000 كلمة.

ما هي الشبكة العصبية؟

خذ الصورة الرقمية ذات الأبعاد 28x28 بكسل كمثال، حيث تتوافق الخلايا العصبية مع كل بكسل من الصورة الرقمية ذات الأبعاد 28x28، مما يؤدي إلى وجود 784 خلية عصبية، والأرقام في الخلايا العصبية تمثل قيم التنشيط، التي تتراوح بين 0-1.

صورة رقمية بحجم 28x28 بكسل، المصدر: http://3b1b.co/neural-networks

هذه الخلايا العصبية 784 تشكل طبقة الإدخال للشبكة. الطبقة النهائية هي الطبقة الناتجة، التي تحتوي على عشرة خلايا عصبية تمثل الأرقام من 0 إلى 9، مرة أخرى بقيم تنشيط تتراوح من 0 إلى 1. الطبقة الوسطى هي الطبقة الخفية، حيث تحدد قيمة التنشيط للطبقة السابقة قيمة التنشيط للطبقة التالية أثناء عمل الشبكة العصبية.

عمق التعلم العميق يكمن في حقيقة أن النموذج يتعلم العديد من "الطبقات" من التحويلات، كل منها له تمثيل مختلف. كما هو موضح في الشكل أدناه، على سبيل المثال، في 9، يمكن للطبقات المختلفة التعرف على ميزات مختلفة. كلما كانت طبقة الإدخال أقرب إلى المستوى الأدنى من التفاصيل للبيانات، كلما كانت طبقة الإخراج أقرب إلى المفاهيم الأكثر تحديدًا التي يمكن استخدامها للتمييز.

المصدر: http://3b1b.co/neural-networks

مع تزايد حجم النموذج، تشمل الطبقات الخفية في الوسط مئات مليارات الأوزان لكل طبقة، وهذه الأوزان والانحيازات هي التي تحدد حقًا ما يقوم به الشبكة بالفعل. عملية التعلم الآلي هي عملية العثور على المعلمات الصحيحة، والتي تشمل الأوزان والانحيازات.

تستخدم تركيبة المحول الموجودة في GPT، وهو نموذج لغوي كبير، طبقة مخفية وسيطة تتكون من 96 طبقة من وحدات فك الترميز، حيث تحتوي GPT1 وGPT2 وGPT3 على 12 و48 و96 طبقة على التوالي. يحتوي فك الترميز بدوره على مكونات الانتباه وشبكات العصب العصبي للردود المباشرة.

طريقة التدريب

ينطوي عملية الحساب أو التعلم على تحديد وظيفة التكلفة (أو وظيفة الخسارة) التي تجمع بين مربعات الاختلافات بين توقعات الإخراج المحسوبة للشبكة والقيم الفعلية، وعندما يكون المجموع صغيرًا، يعمل النموذج ضمن الحدود المقبولة.

يبدأ التدريب عن طريق تعيين معلمات الشبكة عشوائيًا وتحديد معلمات النموذج النهائي للشبكة من خلال العثور على المعلمة التي تقلل من دالة التكلفة. الطريقة لتقارب دالة التكلفة هي عن طريق الانحدار التدريجي، حيث يتم فحص درجة تأثير كل تغيير في المعلمة على التكلفة/الخسارة، ثم يتم ضبط المعلمات وفقًا لتلك الدرجة من التأثير.

عملية حساب تدرج المعلمة تقدم توجيهًا للخلف أو الانتشار العكسي، الذي يعبر عن الشبكة من طبقة الإخراج إلى طبقة الإدخال بترتيب عكسي وفقًا لقاعدة السلسلة. كما يتطلب الخوارزمية تخزين أي متغيرات وسيطة (مشتقات جزئية) مطلوبة لحساب التدرج.

عوامل التطوير

هناك ثلاثة عوامل رئيسية تؤثر على أداء نماذج اللغة الكبيرة للذكاء الاصطناعي أثناء تدريبها، وهي عدد معلمات النموذج، حجم مجموعة البيانات، وكمية الحسابات.

المصدر: تقرير OpenAI، قوانين التحجيم لنماذج اللغة العصبية

هذا متسق مع تطوير مجال البيانات والحواسيب (طاقة الحساب) في الواقع، لكن يمكن أيضًا رؤيته في الجدول أدناه أن طاقة الحساب تنمو بشكل أسرع من البيانات المتاحة، بينما تعتبر الذاكرة هي الأبطأ في التطور.

تطوير مجموعة البيانات والذاكرة وقوة الحساب، المصدر: https://github.com/d2l-ai

البيانات

متطلبات البيانات

في مواجهة نموذج كبير، يميل الإفراط في التدريب إلى حدوث عندما تكون البيانات التدريبية صغيرة جدًا، وبشكل عام، تتحسن دقة النموذج المعقد أكثر مع زيادة كمية البيانات. بالنسبة لمتطلبات البيانات اللازمة لنموذج كبير، يمكن اتخاذ القرار بناءً على قاعدة الـ 10، التي تقترح أن يكون حجم البيانات 10 مرات البرميتر، ولكن بعض خوارزميات التعلم العميق تطبق نسبة 1:1.

البيانات المصنفة

يتطلب التعلم الإشرافي استخدام مجموعات بيانات مصنفة + مميزة للوصول إلى نتائج صحيحة.

المصدر: مجموعة بيانات تصنيف ملابس Fashion-MNIST

البيانات الاصطناعية

على الرغم من الزيادة السريعة في البيانات خلال العقدين الماضيين وتوافر مجموعات البيانات مفتوحة المصدر مثل Kaggle و Azure و AWS و Google database وغيرها، إلا أن كميات البيانات المحدودة والنادرة والمكلفة تصبح تدريجياً زيادة صعوبة لتطوير الذكاء الاصطناعي بسبب مشاكل الخصوصية وزيادة معلمات النموذج وإعادة إنتاج البيانات. تم اقتراح حلول بيانات مختلفة بهدف التخفيف من هذه المشكلة.

قد تكون تقنيات تعزيز البيانات حلاً فعالًا من خلال توفير بيانات غير كافية للنموذج دون الحصول على عينات جديدة، مثل التحجيم، الدوران، الانعكاس، القص، الترجمة، إضافة ضوضاء جاوسية، الخلط، إلخ.

البيانات الاصطناعية هي خيار آخر. البيانات الاصطناعية هي البيانات التي يمكن توليدها بشكل اصطناعي عن طريق محاكاة الكمبيوتر أو الخوارزميات مع أو بدون مجموعة بيانات مرجعية سابقة. فيما يتعلق بتطوير الأدوات لتوليد البيانات الاصطناعية، اخترع إيان ج. غودفيلو الشبكة الجنائية التوليدية (GAN)، وهي بنية تعلم عميق.

تدرب شبكتين عصبيتين على المنافسة مع بعضهما البعض والتي يمكن أن تولد بيانات جديدة وأكثر واقعية من مجموعة بيانات التدريب المعطاة. تدعم الهندسة المعمارية إنشاء الصور، وملء المعلومات المفقودة، وإنشاء بيانات تدريب لنماذج أخرى، وإنشاء نماذج ثلاثية الأبعاد استنادًا إلى البيانات ثنائية الأبعاد، والمزيد.

ما زال الأمر مبكرًا في تطوير المجال، حيث تم تأسيس معظم الشركات الحالية التي تقوم بإنتاج البيانات الاصطناعية في عام 2021 أو 2022، وبعضها في عام 2023.

حالة تمويل شركات البيانات الاصطناعية. المصدر: https://frontline.vc/blog/synthetic-data/

قاعدة بيانات الفيكتور

ينطوي عملية تدريب الذكاء الاصطناعي على عدد كبير من عمليات المصفوفات، بدءًا من تضمين الكلمات ومصفوفة تحويل QKV، وصولاً إلى عمليات softmax، وهكذا من خلال عمليات المصفوفات، يتم حمل معلمات النموذج بأكملها أيضًا في المصفوفة.

مثال على قاعدة بيانات الفيكتور، المصدر: https://x.com/ProfTomYeh/status/1795076707386360227

موارد الأجهزة الحاسوبية

النماذج الكبيرة تجلب طلبًا هائلًا على أجهزة الكمبيوتر، والتي تُصنَّف في الأساس بين التدريب والاستدلال.

التدريب المسبق، ضبط الدقة، والاستدلال

يمكن تقسيم التدريب المسبق وضبط الدقة إلى فئة تحت التدريب. كما ذُكر سابقًا، يتطلب بناء نموذج الشبكة تهيئة المعلمات بشكل عشوائي أولاً، ثم تدريب الشبكة وضبط المعلمات باستمرار حتى تصل خسارة الشبكة إلى نطاق مقبول. الفرق بين التدريب المسبق وضبط الدقة هو أن

يبدأ التدريب التمهيدي مع كل طبقة من المعلمات من التهيئة العشوائية، بينما يمكن استخدام بعض طبقات التحسين الدقيق مباشرة مع معلمات النموذج المدرب سابقًا كمعلمات تهيئة لهذه المهمة (تجميد معلمات الطبقات السابقة) والتأثير على مجموعة بيانات محددة.

المصدر:https://d2l.ai/chapter_computer-vision/fine-tuning.html

التدريب المسبق وضبط الدقة ينطويان على تغييرات في معلمات النموذج، مما يؤدي في نهاية المطاف إلى تحسين النموذج أو المعلمة، في حين أن التستخدام هو حساب التستخدام بعد تحميل النموذج بعد إدخال المستخدم والحصول في نهاية المطاف على ردود الفعل والنتائج النهائية.

التدريب المسبق وضبط الدقة والاستنتاج تتصنف من الأكبر إلى الأصغر من حيث متطلبات الحاسوب الخاصة بها. يقارن الجدول التالي متطلبات أجهزة الحاسوب لعمليات التدريب والاستنتاج. تختلف متطلبات أجهزة الحاسوب للتدريب والاستنتاج بشكل كبير من حيث الطاقة الحسابية والذاكرة والاتصال/النطاق الترددي بسبب الاختلافات في عملية الحساب ومتطلبات الدقة، وفي نفس الوقت هناك تناقض لا يمكن حله في الطاقة الحسابية والذاكرة والاتصال/النطاق الترددي.

تعتمد قياسات الإحصاء في هذا الجدول على نموذج واحد يعالج رمزًا واحدًا ومعلمة واحدة. FLOPs: العمليات العائمة لكل ثانية، عدد عمليات الرياضيات المصفوفة.
*DP، TP، PP: توازي البيانات، توازي التنسور، توازي الأنابيب.

مقارنة أجهزة الكمبيوتر بين التدريب والاستدلال، المصدر: منظمة من قبل هاشكي كابيتال

عملية تدريب الشبكة العصبية تتطلب التناوب بين الانتشار الأمامي والخلفي، باستخدام التدرج الذي يتم توفيره من خلال الانتشار الخلفي لتحديث معلمات النموذج. أما التستخدام، فهو يتطلب فقط الانتشار الأمامي. تصبح هذه الفارقة عاملاً مؤثرًا يميز بشكل رئيسي متطلبات موارد أجهزة الكمبيوتر الخاصة بتدريب النماذج والتستخدام.

من حيث قوة الحساب، كما هو موضح في الجدول، هناك علاقة ضربية بسيطة بين عدد معلمات النموذج واستهلاك قوة الحساب، حيث يتطلب التدريب 6-8 عمليات عائمة ويتطلب التستخدم 2. ويرجع ذلك إلى الانتشار الخلفي المشارك في التدريب، الذي يتطلب ضعف قوة الحساب مقارنة بالانتشار الأمامي، وبالتالي فإن استهلاك قوة الحساب للتدريب أعلى بكثير من التستخدم.

من حيث الذاكرة، يعيد استخدام الانتشار العكسي المستخدم للتدريب القيم الوسيطة المخزنة في الانتشار الأمامي من أجل تجنب الحسابات المتكررة. لذلك، يحتاج عملية التدريب إلى الاحتفاظ بالقيم الوسيطة حتى يتم الانتهاء من الانتشار العكسي. يحتوي الاستهلاك الناتج عن الذاكرة أثناء التدريب بشكل رئيسي على معلمات النموذج، القيم النشطة الوسيطة التي تم إنشاؤها خلال الحساب الأمامي، الميل الناتج عن حساب الانتشار للخلف، وحالات المحسن. لا تحتاج مرحلة الاستدلال إلى الانتشار العكسي، ولا تحتاج إلى حالة المحسن والميل، وما إلى ذلك، واستخدام الذاكرة الخاصة بها أصغر بكثير من ذلك خلال التدريب.

من حيث الاتصال / النطاق الترددي، من أجل تحسين أداء تدريب الذكاء الاصطناعي، يستخدم تدريب النموذج الرئيسي عادة ثلاث استراتيجيات موازية: موازاة البيانات، وموازاة التحويل، وموازاة الأنابيب.

  • تتعلق الموازاة البيانية بتكرار النماذج المتعددة التي تعمل على أجهزة مختلفة، مع كل نموذج يعمل على مجموعات بيانات مختلفة، ومزامنة بيانات التدرج خلال دورة التدريب.
  • على الجانب الآخر، يقسم التوازي الأنابيب الطبقات الخفية الوسيطة ويكون كل عقد حسابي مسؤولاً عن عدة من هذه الطبقات المحولة. يُعرف هذا النهج أيضًا باسم التوازي بين الطبقات.
  • التوازي التوتري، من ناحية أخرى، يقسم كل وحدة من وحدات التحويل هذه ويُعرف أيضًا باسم التوازي داخل الطبقة.

المصدر: OpenAI، https://openai.com/index/techniques-for-training-large-neural-networks/

بالنسبة لهذه الاستراتيجيات الثلاث، يُتوقع أن تكون ترددات الاتصال TP الأكبر، وأن يكون حجم الاتصال الأعلى، ويتعلق بعدد الرموز، وعرض النموذج، وعدد الطبقات. يكون حجم الاتصال وتردد PP أصغر من ذلك في TP، ويتعلق بعدد الرموز، وعرض النموذج. أما حجم الاتصال وتردد DP فيكون الأصغر وغير مرتبط بالرموز الداخلية.

التثليمة المستحيلة

إن عنق الزجاجة لموارد أجهزة الكمبيوتر في النماذج الكبيرة محدود بشكل أساسي بقدرة الحوسبة وعرض النطاق الترددي / الاتصال والذاكرة ، وهناك ضوابط وتوازنات بين الثلاثة ، مما يؤدي إلى مشكلة المعضلة الثلاثية المستحيلة. على سبيل المثال ، بسبب اختناقات الاتصال ، لا يمكن تحسين أداء نظام المجموعة ببساطة عن طريق تحسين قوة جهاز كمبيوتر واحد.

لذلك ، على الرغم من استخدام البنى المتوازية لتسريع أداء الكتلة ، فإن معظم البنى المتوازية تضحي في الواقع بالاتصال أو التخزين من أجل قوة الحوسبة.

التضحية بالاتصال والتخزين من أجل قوة الحوسبة:

في PP، إذا تم تعيين وحدة معالجة الرسومات لكل طبقة من المحولات، على الرغم من زيادة الطاقة الحسابية في وحدات الزمن، فإن متطلبات الاتصال بين الطبقات تزداد أيضًا، مما يؤدي إلى زيادة حجم البيانات وزمن الانتظار. بالإضافة إلى ذلك، فإن متطلبات تخزين الحالة الوسيطة لانتشار الإشارة الأمامية تزيد بسرعة كبيرة للغاية.

التضحية بالاتصال من أجل قوة الحوسبة:

في TP، يتم تفكيك كل محول للحوسبة المتوازية. نظرًا لأن المحول يتكون من جزئين (رأس الانتباه والشبكة التغذية الأمامية)، يمكن تقسيم المهمة داخل الطبقة إما لرأس الانتباه أو الشبكة العصبية التغذية الأمامية. يمكن أن يخفف هذا النهج TP من مشكلة التسلسل الهرمي الزائد بسبب عدم قدرة وحدات المعالجة المركزية الرسومية على تناسب النموذج. ومع ذلك، لا يزال لهذا النهج عبء اتصال جدي serious.

مجال العملات الرقمية+الذكاء الاصطناعي

نعتقد في هذا الورقة أنه حاليًا هناك الفئات الرئيسية التالية من الذكاء الاصطناعي في مجال العملات الرقمية:

المصدر: منظم بواسطة هاشكي كابيتال

كما ذكر سابقًا، تعتبر البيانات والنماذج والطاقة الحاسوبية الثلاثة العناصر الأكثر أهمية في مجال الذكاء الاصطناعي، والتي تعتبر البنية التحتية التي تمكن AI في مجال العملات الرقمية.

تحدث تلك الجمعية فعلا عن تشكيل شبكة حوسبة، مع ظهور عدد كبير من البرامج الوسيطة في عملية الحساب من أجل أن تكون فعالة وأكثر توافقا مع روح العملات الرقمية. فيما بعد، تعتمد الوكالات على هذه النتائج التي يمكن التحقق منها، والتي يمكن أن تخدم أدوارا مختلفة لجماهير المستخدمين المختلفة بشكل أفضل.

يمكن استخدام مخطط تدفق آخر للتعبير عن البيئة الأساسية للذكاء الاصطناعي الرقمي على النحو التالي:

الرسم التوضيحي البيئي، المصدر: منظم بواسطة HashKey Capital

بالطبع، تحتاج آليات الرموز الرقمية في مجال العملات الرقمية إلى تحفيز تنسيق مشاركة اللاعبين المختلفين.

البيانات

بالنسبة لمجموعات البيانات، يمكن للشخص اختيار بين مصادر البيانات العامة أو مصادر البيانات الخاصة الخاصة به.

مصدر البيانات:

  • Grass هو المشروع الذي يزحف على مصادر البيانات في أعلى سولانا، يعود السبب في ذلك إلى حقيقة أن العديد من الشركات تحظر زحف عناوين IP من مراكز البيانات ولكن لا تحظر مستخدمي الإقامة، تعمل Grass كمزود خدمة لامركزي يحفز مستخدمي الإقامة على المساهمة بعرض النطاق الترددي الخاص بهم من خلال رمز.
  • توفر Vana بصفتها DATA DAO أيضًا حلاً خاصًا بها، حيث يقوم الخالق بإنشاء DATA DAO مختلفة لمصادر البيانات المختلفة على السلسلة وإعداد برامج حوافز مختلفة للمستخدمين لتحميل بياناتهم. حتى الآن، تم إنشاء DATA DAO ل reddit (rDAO) حيث يقدم أكثر من 154,000 مستخدم بياناتهم الشخصية إلى rDAO لتدريب الذكاء الاصطناعي.
  • يتم جمع البيانات ذات الصلة في شكل DePINs، الذي يتيح للمستخدمين ربط مركباتهم بمنصة DIMO عبر جهاز أجهزة، على سبيل المثال. سيتم نقل المعلومات الأساسية حول تلك المركبة وبيانات نمط القيادة المتقدمة أكثر، وما إلى ذلك بشكل آمن إلى شبكة DIMO، وتخزينها على سلسلة الكتل، وربطها بمعرف المركبة المقابل (NFT). ومن الأمثلة الأخرى Hivemapper الذي يجمع بيانات الخريطة أثناء قيادة المستخدم.

منصة بيانات اصطناعية:

  • دريا هي منصة لتوليد البيانات الاصطناعية (OPStack L2) التي تحفز المستخدمين على توليد / تداول البيانات الاصطناعية بطريقة لامركزية. تتم تخزين بياناتها في Arweave من خلال HollowDB. عندما يبدأ المستخدمون طلب توليد بيانات اصطناعية، ستقبل دريا الطلب وتقسم المهمة إلى العقد الحسابية في شبكة البيانات الاصطناعية لتنفيذها، وبعد التحقق من الشبكة، يمكن تداول البيانات الاصطناعية النهائية في سوق المعرفة.

الآخرين:

منصة خدمة تسمية البيانات، من خلال تعيين مهمة طلب التسمية لعمال مختلفين، يمكن لهؤلاء العمال الحصول على حافز الرمز المقابل بعد إكمال المهمة مثل كريبو، الذكاء العام وهكذا. ومع ذلك، المشكلة الحالية هي أن هناك المزيد من الأشخاص القيام بتسمية البيانات من البيانات، في حين أن لدى شركات الذكاء الاصطناعي موردين مستقرين لتسمية بياناتهم المُسمّاة، بسبب الوجود اللزج الذي يجعل عزمهم على التحول إلى منصات مركزية ضعيف. قد تكون هذه المنصات قادرة فقط على الحصول على تخصيص الجزء المتبقي من الطلب من موردي تسمية البيانات.

شبكات الحوسبة

شبكات الحوسبة المتعممة

شبكات الحوسبة المعممة، والتي تشير إلى الشبكات التي تجمع بين موارد مثل وحدات المعالجة الرسومية ووحدات المعالجة المركزية لتكون قادرة على توفير خدمات الحوسبة المعممة التي تعني عدم وجود تمييز بين التدريب والاستنتاج.

  • أكاش، مشروع عام 2020، يعمل كسوق لمطابقة العرض والطلب الحسابي، مما يتيح لمزودي الحوسبة المزايدة على الطلبات، مع تحميل التطابقات النهائية على البلوكشين كمعاملات. محقق منفصل مسؤول عن تعبئة الكتل وأداء التحقق. هذه العملية لا تشمل كيفية تخصيص مهام الذكاء الاصطناعي، ولا تقوم بالتحقق من عملية الحساب، والنتائج، دون التمييز بين التدريب والاستدلال.
  • اكتشفت io.net، التي وصلت إلى يونيو 2022 في تطوير نظم التداول الكمي عالية المستوى بشكل أساسي لسوق الأسهم الأمريكية وأسواق العملات المشفرة، Ray.io، وهو مكتبة Python مفتوحة المصدر لبناء أنظمة موزعة عالية الأداء. يستفيد io.net من Ray والمكتبات المتخصصة لتدفق البيانات والتدريب وضبط الدقة، ويجمع مع شبكات الـ Mesh VPNs (التي تبسط عملية تطوير ونشر نماذج الذكاء الاصطناعي على نطاق واسع من وحدات المعالجة الرسومية) لتوفير خدمات الحسابات.
  • بيتينسور، كمنصة مفتوحة، تسمح للمستخدمين بإنشاء شبكات فرعية على منصتها، كل شبكة فرعية لها حوافز فريدة لتحفيز المستخدمين الآخرين على المشاركة كمنقبين في الشبكة الفرعية، ومقدمين خدمة التحقق في تشغيل المهام الخاصة، ومقدمين خدمة التحقق في تحقق مهام هؤلاء المنقبين.
  • أيثر، هو بنية الحوسبة السحابية التي توفر خدمات عالية الجودة للذكاء الاصطناعي وألعاب الفيديو السحابية. يركز أيثر على تجميع موارد وحدة المعالجة الرسومية عالية الجودة، مثل رقاقة NVIDIA H100، من مراكز البيانات، وشركات التكنولوجيا، وشركات الاتصالات، وأهم استوديوهات الألعاب، وشركات تعدين العملات الرقمية. تتكون الشبكة من 3 جهات أساسية: الحاوية، والفاحص، والفهرس. الحاويات، بما في ذلك حافة أيثر، هي المكان الذي يتم فيه فعليا استخدام موارد الحوسبة. يضمن الفاحص سلامة وأداء الحاوية. إذا لزم الأمر، يقوم الفهرس بمطابقة المستخدمين النهائيين مع الحاويات المناسبة استنادًا إلى متطلبات المستخدم النهائي.

شبكات محددة للحوسبة

التدريب المسبق

في مساحة Crypto ، تقترح Gensyn ، المستثمرة من قبل a16z ، شبكة حوسبة تدريب لامركزية.

العملية تتمثل في أنه بعد أن يقدم المستخدم مهمة متطلبات التدريب، تقوم المنصة بتحليلها، وتقييم الطاقة الحسابية المطلوبة وتقسيمها إلى أدنى عدد من أعمال ML، وفي هذه النقطة يقوم المحقق بشكل دوري بالتقاط المهمة المحللة لتوليد عتبات لمقارنة أدلة التعلم النزولي.

بمجرد أن يدخل المهمة مرحلة التدريب، يتم تنفيذها بواسطة الحلال، الذي يخزن بشكل دوري وزن النموذج وفهارس الاستجابة من مجموعة بيانات التدريب بالإضافة إلى إنشاء الأدلة التعلمية، ويقوم المحقق أيضًا بأداء العمل الحسابي بإعادة بعض الأدلة لأداء حسابات المسافة للتحقق من مطابقتها للأدلة. يقوم المبلغون على أساس الوسيط ببرنامج تحدي محدد بواسطة الرسوم البيانية للتحقق مما إذا كان العمل التحقق تم بشكل صحيح.

ضبط دقيق

يعد الضبط الدقيق أسهل وأقل تكلفة في التنفيذ من التدريب المسبق المباشر لنموذج كبير ، وذلك ببساطة عن طريق ضبط النموذج المدرب مسبقا بمجموعة بيانات محددة ، وتكييف النموذج مع مهمة محددة مع الحفاظ على النموذج الأصلي.

يمكن الوصول إلى Hugging Face كموفر لمورد نموذج اللغة المدرب مسبقًا على المنصة الموزعة، حيث يختار المستخدم النموذج الذي يجب ضبطه وفقًا لمتطلبات المهمة ثم يستخدم وحدات المعالجة الرسومية والموارد الأخرى المقدمة من شبكة الحوسبة لضبط المهمة، الأمر الذي يحتاج إلى الاعتماد على تعقيد المهمة لتحديد حجم مجموعة البيانات، وتعقيد النموذج، وتحديد الحاجة إلى مستوى أعلى من الموارد مثل A100.

بالإضافة إلى Gensyn، وهي منصة يمكنها دعم التدريب المسبق، يمكن أيضًا لمعظم منصات الحوسبة دعم ضبط الدقة.

استنتاج

بالمقارنة مع التدريب (التدريب الأولي وضبط الدقة) الذي يتطلب ضبط معلمات النموذج، ينطوي العملية الحسابية للاستنتاج فقط على التوجيه إلى الأمام ويتطلب قدرًا أقل من القدرة الحاسوبية. معظم شبكات الحوسبة اللامركزية حاليا تركز على خدمات الاستنتاج.

  • شبكة نوسانا هي منصة لتشغيل أعباء العمل الذكي التي توفر خدمات الحوسبة المستهدفة لعملية الاستنتاج لنماذج LLama 2 وStable Diffusion.
  • Ritual.AI، المرحلة الأولى من المنصة هي Infernet وهو إطار خفيف. باستخدامه يمكن لمطوري العقود الذكية طلب خدمات الاستنتاج من خارج السلسلة وتقديمها إلى العقود الذكية على السلسلة. المرحلة الثانية هي طبقة التنفيذ، سلسلة Ritual، التي تدعم العمليات الأصلية للذكاء الاصطناعي.

طبقات / وسيطة إضافية

عندما يتم إجراء الاستدلال في هذه المرحلة، فإنها بالفعل تكون مرحلة استخدام النموذج، ثم يمكن إدخال الوسيط في الوقت المناسب:

  • تطابق النموذج: عند إجراء التمثيل، من الضروري عادة تحديد النموذج المناسب وفقًا لمتطلبات المهمة.
  • API: تجميع جميع واجهات برمجة التطبيقات لنماذج المصدر المفتوحة، مثل Redpill

عقد ذكي على السلسلة لاسترداد نتائج الحوسبة الذكية خارج السلسلة:

  • بروتوكول ORA لتوفير نتائج استدلال موثقة لعقود ذكية، على سبيل المثال، يقوم العقد opML بجمع طلبات opML المرسلة من السلسلة، ثم يقوم بتشغيل استدلال الذكاء الاصطناعي، ومن ثم يقوم بتحميل النتائج إلى السلسلة وينتظر فترة التحدي.

يمكن إضافة طبقة أخرى من الخصوصية إلى شبكة الحوسبة، تشمل بشكل رئيسي الخصوصية في البيانات والخصوصية في النموذج، حيث تكون خصوصية البيانات أهم بكثير من خصوصية النموذج.

  • حاليًا، يستخدم بروتوكول Oasis Intel TDX و NVIDIA TEEs لتوفير الخصوصية والقابلية للتحقق لتدريب نماذج الذكاء الاصطناعي.

التحقق

معظم شبكات الحوسبة تبني أنظمة تحقق مختلفة لضمان تشغيل النظام بدقة، في حين أن الرابط هو جزء لم يتم تقديمه بعد في مجال الذكاء الاصطناعي التقليدي.

ZKML

الدور الرئيسي لإثبات ZK هو النقطتين التاليتين:

  • يُستخدم لإثبات دقة النموذج دون الكشف عن أي معلمات
  • أثبت أن الحساب تم بشكل صحيح وأن النموذج + المدخلات تتطابق مع النواتج: Modulus labs، Giza

أظهرت Modulus Labs أنه من الممكن إنشاء براهين ل 18 مليون نموذج معلمة في 60-70 ثانية باستخدام نظام إثبات Plonky من Polygon. بالنسبة للطرز الصغيرة ، من الممكن استخدام ZKML في هذه المرحلة ، لكن التكلفة لا تزال كبيرة:

  • وقت إثبات ZKML ينمو مع زيادة المعلمات.
  • إنها مكلفة جدًا من حيث استهلاك ذاكرة البروف المستخدم. على سبيل المثال، تستخدم Worldcoin نموذجًا يحتوي على 1.8 مليون معلمة و 50 طبقة للتمييز بين 10 مليار قزحية، حيث يمكن إنشاء دلائل الاستدلال في بضع دقائق فقط، ولكن استهلاك الذاكرة داخل البروف يعتبر مرتفعًا جدًا بالنسبة لأي عتاد محمول.

المصدر: @ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307"">https://medium.com/@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307

OPML

نظرًا للقيود المفروضة على ZKML المذكورة أعلاه، فإن OPML هو بديل. على الرغم من أنه أضعف من ZKML من حيث الأمان، إلا أن استهلاك الذاكرة ووقت حساب البرهانات فيه أفضل بشكل كبير من ذلك في ZKML. ووفقًا لتقرير ORA، فقد تبين أنه يمكن معالجة نموذج 7B-LLaMA نفسه (بحجم نموذج يبلغ حوالي 26 جيجابايت) في OPML داخل 32 جيجابايت من الذاكرة، بينما يمكن أن يكون استهلاك الذاكرة للدوائر في zkML على مستوى تيرابايت أو حتى بيتابايت.

TEEML

توفير بيئة تنفيذ موثوق بها يوفر أمان على مستوى الأجهزة ويمكن أن يكون بديلاً ل ZKML و OPML. يتم إنشاء دليل TEE-proof نتيجة للحساب الداخلي داخل TEE وتكلفته الحسابية أقل بكثير من تلك التي تمليها zk-proof. كما أن حجم الدليل TEE عادة ما يكون ثابتًا (طول التوقيع) وبالتالي له ميزة بصمة أصغر وتكلفة أقل للتحقق على السلسلة.

بالإضافة إلى التحقق، يتمتع TEE بميزة الحفاظ على البيانات الحساسة معزولة، مما يضمن عدم تمكن العمليات الخارجية أو الحوسبة من الوصول إلى البيانات الداخلية أو تعديلها.

المشاريع التي تستخدم تقنية البيئة الموثوقة تشمل:

  • شبكة Aizel (توفير الاستدلال)
  • شبكة Phala (متخصصة في إنشاء وكلاء الذكاء الاصطناعي)
  • بروتوكول Oasia (تدريب النموذج الذكي)
  • بروتوكول مارلين (يمكن لـ Oyster نشر وتحقق من نماذج ML)

المصدر: https://arxiv.org/pdf/2401.17555,بروتوكول مارلين

بالإضافة إلى ذلك، قام بروتوكول ORA بتطوير opp/ai (Optimistic Privacy-Preserving AI on Blockchain) بالإضافة إلى العلامات التجارية الخاصة به من التحقق ZKML و OPML، وليست مدرجة في الجدول المقارن أعلاه.

طبقة الوكيل

الوكيل لديه القدرة على تحليل المعلومات الواردة، وتقييم الظروف البيئية الحالية واتخاذ القرارات. يُظهر تكوين الوكيل في الشكل التالي، حيث يُعتبر LLM المكون الأساسي، بالإضافة إلى ضرورة تغذية التعليمة المناسبة إلى LLM، ومن خلال الذاكرة لتخزين البيانات القصيرة الأجل والبيانات القديمة طويلة الأجل (البيانات الخارجية).

نظرًا لأن المهام المعقدة لا يمكن إكمالها دفعة واحدة، فإنها تحتاج إلى تقسيمها إلى مهام أصغر من قبل Plan، بالإضافة إلى أن الوكيل يمكنه أيضًا استدعاء واجهات برمجة التطبيقات الخارجية للحصول على معلومات إضافية، بما في ذلك المعلومات الحالية، وإمكانيات تنفيذ الكود، والوصول إلى مصادر المعلومات الخاصة، وما إلى ذلك.

المصدر: استطلاع حول وكلاء مستقلين معتمدين على نماذج لغوية كبيرة

لم يكن لقدرة الوكلاء على اتخاذ القرار اختراق معين حتى ظهور نموذج اللغة الكبيرة LLM في السنوات الأخيرة. قام تقرير بتجميع عدد الأوراق المنشورة على الوكلاء من 2021 إلى 2023 ، كما هو موضح في الشكل أدناه ، في الواقع لا يوجد سوى حوالي اثنتي عشرة ورقة بحثية في عام 2021 ، ولكن هناك مئات الأوراق المنشورة عليها في عام 2023. صنفت الورقة وكلاءها إلى 7 فئات.

المصدر: استطلاع حول وكلاء مستقلين يعتمدون على نماذج لغوية كبيرة

في web3، تظل السيناريوهات التي توجد فيها الوكلاء محدودة مقارنة بعالم web2، وتشمل حاليًا التخليص التلقائي، بناء مكونات الشيفرة (كتابة عقود ذكية، كتابة دوائر zk)، التحكم في المخاطر في الوقت الحقيقي، وتنفيذ استراتيجيات مثل التحكم الأمثل وزراعة العائد.

إنشاء الوكيل ومنصات التداول

  • قدم Theoriq (ChainML) مفهوم طبقة الوكيل الأساسي، الذي يسمح للمطورين بتعليق الوكلاء في شكل NFT وإنشاء وكلاء خاصين بهم، فضلا عن بناء جماعة وكلاء عن طريق دمج الوكلاء لتحقيق متطلبات معقدة. يقوم هذا العملية بتقييم أداء وربط وكلاء مختلفين من خلال دليل المسؤولية ودليل التعاون.
  • لدى شركة سبيكترال لابز منتجان رئيسيان، وهما سبيكترال سينتاكس، وهي منصة تمكن المستخدمين من إنشاء وكلاء على السلسلة، وسبيكترال نوفا، وهي خدمة استنتاج تدعم طلب خدمات الاستنتاج. إن إنشاء وكيل في سبيكترال سينتكس يستخدم خدمة الاستنتاج في سبيكترال نوفا، ويتم ضمان ذلك الاستنتاج بواسطة دليل ZK للتأكد من أنه يعمل. في الوقت نفسه، سيتم إطلاق إنفرتشين لتمكين التواصل بين الوكلاء.
  • تدعم Autonolas بناء الخدمات التي تتكون من عدة وكلاء، مما يتيح لمالك الخدمة إنشاء خدمة وتسجيل الخدمة المقابلة في سجل الخدمات من أجل بدء سير العمل، وطلب المطور لتوفير مكونات الوكيل وما إلى ذلك. يمكن للمطورين تطوير الوكيل، ومكوناته وغيرها من الشفرة المخزنة خارج السلسلة، وإنتاج NFT المقابلة على السلسلة، والإشارة إلى تجزئة IPFS للبيانات الوصفية، ثم الإشارة إلى الشفرة الأساسية من خلال الإشارة إلى تجزئة IPFS بشكل إضافي. تعمل الخدمات عادةً بواسطة مجموعة من المشغلين، يعمل كل منهم على الأقل بنسخة واحدة من الوكيل. بالإضافة إلى ذلك، تحقق Autonolas اتفاقًا داخل الخدمة بين وكلائها من خلال جهاز Consensus الذي ينشئ اتفاقًا بين الوكلاء داخل الخدمة.

منصة مراقبة الوكلاء

  • AgentOpsAI هو شريك للذكاء الواعي، يقدم خدمات مراقبة الوكيل (سجل الأحداث، المكالمات، أخطاء الوكيل، إلخ)، حالياً منصة مركزية، لا توجد عملة مشاركة.

مجال العملات الرقمية

بناءً على وكلاء مختلفين يمكن تجميعهم / تجريدهم / إنشاؤهم تطبيق محدد، في الوقت نفسه، هناك بعض منصات التنسيق المتاحة للمستخدمين لاختيار نوع الوكلاء لاستخدامه في بناء نوع معين من التطبيق. ولكن معظمها مقصورة على تطوير الوكلاء.

تطبيق

مطورو المشاريع

سيستخدم بعض المطورين بعض الذكاء الاصطناعي لمساعدة منصاتهم على أن تكون أكثر ذكاءً، على سبيل المثال، في مشاريع الأمان، يتم استخدام التعلم الآلي لتمييز ثغرات الهجوم؛ تستخدم بروتوكولات الديفي الذكاء الاصطناعي لبناء أدوات مراقبة في الوقت الحقيقي؛ وتستخدم منصات تحليل البيانات أيضًا الذكاء الاصطناعي للمساعدة في تنظيف البيانات والتحليل.

المستخدم

نافذة الأسئلة والأجوبة/التحليل

  • يمكن لمستخدمي Kaito.ai استخدام الأسئلة والأجوبة للحصول على معلومات حول مشاعر المجتمع تجاه المشروع والسعر وحركات الفريق الأساسي.
  • 0xScope، الاستخدام الأساسي للرسوم البيانية لدمج البيانات على السلسلة، وهي سمات السلوك للمستخدمين، لتوفير خدمات تحليل البيانات للمستخدمين، أطلق نافذة Scopechat للأسئلة والأجوبة في الوقت المناسب لهذه الموجة من الذكاء الاصطناعي.

متجر تطبيقات الذكاء الاصطناعي

  • يقترح Myshell طبقة استهلاكية ويقوم بإنشاء متجر تطبيقات الذكاء الاصطناعي، الذي يوفر مكونات ذكاء اصطناعي مختلفة وثلاثة أوضاع إنشاء لتسهيل إنشاء تطبيقات ذكاء اصطناعي مختلفة من قبل المستخدمين. تنقسم الودجت إلى مكونات أساسية ومركبة. تسمح المكونات الأساسية للمستخدمين بإدراج تعليمات، صوت، أفاتار وأصول أخرى في تطبيقات الذكاء الاصطناعي، بينما تسمح المكونات المركبة ببناء مكونات مخصصة باستخدام مجموعة من النماذج/المكونات الأساسية المتعددة. تتضمن أوضاع الإنشاء، الكلاسيكية، والتطوير، وبدون كود، ثلاثة أوضاع للمطورين والمستخدمين ذوي القدرات والاحتياجات المختلفة.

ملخص

في هذه المقالة، نود التركيز على النقاط الثلاث التالية:

  • GPUAI

في مجال العملات الرقمية، يظهر عدد من شبكات الحوسبة بشكل لا مفر منه يجعل المستخدمين يشعرون بأن وحدة معالجة الرسومات هي الذكاء الاصطناعي، ولكن كما تم تحليله في القسم السابق، هناك مثلث مستحيل من شبكات الحوسبة، أي الطاقة الحوسبة، والنطاق الترددي/الاتصال، والذاكرة، بالإضافة إلى ثلاثة أنواع من استراتيجيات التوازي المستخدمة في تدريب النماذج، مثل التوازي بالبيانات، والتوازي بالتينسور، والتوازي بالأنابيب، تشير جميعها إلى التوازنات المفروضة على إعداد إطار الشبكة الحوسبة.

  • نفس النموذج ونفس البيانات نفس النتيجة

السبب وراء حقيقة أن نفس النموذج والبيانات لا تسفر بالضرورة عن نفس النتيجة هو استخدام حساب الفاصلة العائمة. هذا الاختلاف في الحساب له أيضا تأثير على بناء شبكة الحوسبة.

  • المزيد من وكلاء الذكاء الاصطناعي

لم تبدأ العملاء الذكيون في إظهار المزيد من الفائدة إلا في السنوات الأخيرة، ونتوقع ظهور المزيد من العملاء في السوق. ولكن كيفية عمل العملاء في مجال العملات الرقمية أو كيفية العثور على حوافز الرموز الصحيحة لا تزال تشكل تحديًا.

تصريح:

  1. هذه المقالة مأخوذة من [وسيلة]، عنوان النص الأصلي "AI into Crypto"، حقوق النشر ملك للكاتب الأصلي[HashKey Capital ],如对转载有异议,请联系Gate Learn团队، سيتم معالجة الفريق بسرعة وفقا للعمليات ذات الصلة.

  2. 免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。

  3. النصوص الأخرى مترجمة إلى لغات أخرى من قبل فريق Gate Learn دون ذكربوابة.ايوفي هذه الحالة، لا يجوز نسخ أو نشر أو اقتباس المقال المترجم.

Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!