بدأت في استكشاف البنية التحتية الوكيلة منذ أسبوعين فقط بدون أي أساس — وبصراحة، كانت تجربة رائعة. أنشأت نظام ذاكرة محلي خاص بي باستخدام نموذج لغة صغير يعمل محليًا، مبني على تصميم ذو قناة مزدوجة يعمل فعلاً.
القناة 1 تركز على البذور الهجينة مع بحث دلالي مدعوم بالتضمينات. تسمح هذه الطريقة بفهرسة واسترجاع المعلومات السياقية بكفاءة دون الاعتماد على واجهات برمجة التطبيقات الخارجية. نظام الأوزان يسحب إشارات بيانات مختلفة استنادًا إلى درجات الصلة، مما يحافظ على استنتاج نظيف وسريع الاستجابة.
ما فاجأني أكثر؟ مدى سرعة إمكانية نمذجة هذا المكدس باستخدام أجهزة من الدرجة الاستهلاكية. النموذج اللغوي المحلي يتعامل مع توليد التضمينات في الوقت الحقيقي، وإعداد القناتين يوجه الاستعلامات بذكاء بين البيانات المنظمة والمطابقة الدلالية. ليست بنية تحتية رائدة، ولكن بالنسبة للوكلاء الذكيين الشخصيين الذين يحتاجون إلى استمرارية الذاكرة، فإن هذا يتوسع بشكل مدهش.
كانت منحنى التعلم أكثر حدة مما توقعت، لكن عند تفكيكه — التضمينات، البحث عن المتجهات، خطوط أنابيب الاستنتاج المحلية — كل جزء أصبح واضحًا بمجرد أن تتوقف عن التفكير الزائد. إذا كنت تستكشف أنظمة الوكيل، فإن البدء محليًا هو بالتأكيد الخطوة الصحيحة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
9
إعادة النشر
مشاركة
تعليق
0/400
ColdWalletGuardian
· 01-11 00:00
تشغيل LLM محليًا حقًا رائع، خلال أسبوعين من الصفر إلى الإطلاق، هذا الشخص بدأ مباشرة ونجح في إنجازه... أشعر أنه أكثر جدوى من العبث مع API السحابي
شاهد النسخة الأصليةرد0
CodeZeroBasis
· 01-10 23:33
يا إلهي، في أسبوعين فقط وبدون خبرة استطعت أن أطور هذا الشيء، وما زلت أتحير في كيفية استخدام embedding...
شاهد النسخة الأصليةرد0
MetaMasked
· 01-09 09:00
هل يمكنك إنجاز ذلك في أسبوعين بدون خبرة؟ يا له من رجل فعلاً لديه بعض المهارات، تشغيل embedding محلياً وفر الكثير من تكاليف API، أود أن أجرب ذلك أيضاً
شاهد النسخة الأصليةرد0
GateUser-00be86fc
· 01-08 07:50
بدأت منذ أسبوعين في بناء بنية وكيل محلي من الصفر، والآن أشعر بالإرهاق قليلاً، وأعتقد أن الأجهزة الاستهلاكية فعلاً كافية...
شاهد النسخة الأصليةرد0
orphaned_block
· 01-08 07:46
تشغيل LLM محليًا خلال أسبوع فقط، لم أتوقع أبدًا أن الأجهزة من المستوى الاستهلاكي يمكنها التعامل مع كل هذه الأمور... منطق التوجيه في الراوتر ذو القناتين رائع جدًا
شاهد النسخة الأصليةرد0
SchrodingerProfit
· 01-08 07:44
هل يمكن لنظام الذاكرة المحلي أن يُبنى من الصفر خلال أسبوعين بدون خبرة؟ مجنون، يجب أن أجرب خطة القناتين المزدوجتين هذه... لكن هل يمكن للأجهزة الاستهلاكية حقًا تحمل توليد التضمين في الوقت الحقيقي؟
شاهد النسخة الأصليةرد0
AirdropHunterWang
· 01-08 07:42
خلال أسبوعين، أنشأ نظام ذاكرة محلي من الصفر، هذا الشخص حقًا قوي... لم أتوقع أبدًا أن الأجهزة الاستهلاكية يمكنها تشغيل هذا النظام
شاهد النسخة الأصليةرد0
AirdropHunterKing
· 01-08 07:37
يا صاح، لقد كنت أبحث منذ فترة عن هذا النموذج المحلي الكبير، فقط لا أريد أن أُحاصَر بتكاليف الغاز عبر API. تصميمك ذو القناتين فعلاً مميز، يوفر عليك الدفع مقابل الاستخدام المجاني.
بدأت في استكشاف البنية التحتية الوكيلة منذ أسبوعين فقط بدون أي أساس — وبصراحة، كانت تجربة رائعة. أنشأت نظام ذاكرة محلي خاص بي باستخدام نموذج لغة صغير يعمل محليًا، مبني على تصميم ذو قناة مزدوجة يعمل فعلاً.
القناة 1 تركز على البذور الهجينة مع بحث دلالي مدعوم بالتضمينات. تسمح هذه الطريقة بفهرسة واسترجاع المعلومات السياقية بكفاءة دون الاعتماد على واجهات برمجة التطبيقات الخارجية. نظام الأوزان يسحب إشارات بيانات مختلفة استنادًا إلى درجات الصلة، مما يحافظ على استنتاج نظيف وسريع الاستجابة.
ما فاجأني أكثر؟ مدى سرعة إمكانية نمذجة هذا المكدس باستخدام أجهزة من الدرجة الاستهلاكية. النموذج اللغوي المحلي يتعامل مع توليد التضمينات في الوقت الحقيقي، وإعداد القناتين يوجه الاستعلامات بذكاء بين البيانات المنظمة والمطابقة الدلالية. ليست بنية تحتية رائدة، ولكن بالنسبة للوكلاء الذكيين الشخصيين الذين يحتاجون إلى استمرارية الذاكرة، فإن هذا يتوسع بشكل مدهش.
كانت منحنى التعلم أكثر حدة مما توقعت، لكن عند تفكيكه — التضمينات، البحث عن المتجهات، خطوط أنابيب الاستنتاج المحلية — كل جزء أصبح واضحًا بمجرد أن تتوقف عن التفكير الزائد. إذا كنت تستكشف أنظمة الوكيل، فإن البدء محليًا هو بالتأكيد الخطوة الصحيحة.