AixDePin: ما هي الفرص الجديدة التي ستنشأ عن تصادم هذين المسارين الساخنين؟

مبتدئJan 26, 2024
تشرح هذه المقالة التغييرات التي يمكن أن تجلبها DePin إلى الذكاء الاصطناعي، مع إمكانية جعل التدريب على الذكاء الاصطناعي أكثر كفاءة وتحقيق تعميم الذكاء الاصطناعي.
AixDePin: ما هي الفرص الجديدة التي ستنشأ عن تصادم هذين المسارين الساخنين؟

من خلال تسخير قوة الخوارزميات وقوة الحوسبة والبيانات، فإن تقدم تكنولوجيا الذكاء الاصطناعي يعيد تعريف حدود معالجة البيانات واتخاذ القرار الذكي. وفي الوقت نفسه، يمثل DePin نقلة نوعية من البنية التحتية المركزية إلى الشبكات اللامركزية القائمة على بلوكتشين.

مع تسريع العالم وتيرته نحو التحول الرقمي، أصبحت AI و DePin (البنية التحتية المادية اللامركزية) تقنيات أساسية تقود التحول عبر الصناعات. لا يؤدي دمج الذكاء الاصطناعي و DePin إلى تعزيز التكرار التكنولوجي السريع والتطبيق على نطاق واسع فحسب، بل يفتح أيضًا نموذج خدمة أكثر أمانًا وشفافية وكفاءة، مما يؤدي إلى تغييرات عميقة في الاقتصاد العالمي.

DePin: اللامركزية تنتقل من الواقع الافتراضي إلى الواقع، الدعامة الأساسية للاقتصاد الرقمي

DePin هو اختصار للبنية التحتية المادية اللامركزية. بالمعنى الضيق، يشير DePin بشكل أساسي إلى الشبكة الموزعة للبنية التحتية المادية التقليدية المدعومة بتقنية دفتر الأستاذ الموزع، مثل شبكة الطاقة وشبكة الاتصالات وشبكة تحديد المواقع وما إلى ذلك بشكل عام، يمكن تسمية جميع الشبكات الموزعة التي تدعمها الأجهزة المادية باسم DePin، مثل شبكات التخزين وشبكات الحوسبة.

مصدر الصورة: ميساري

إذا أحدثت Crypto تغييرات لامركزية على المستوى المالي، فإن DePin هو الحل اللامركزي في الاقتصاد الحقيقي. يمكن القول أن آلة التعدين PoW هي نوع من DePin. لذلك، كان DePin ركيزة أساسية لـ Web3 منذ اليوم الأول.

العناصر الثلاثة للذكاء الاصطناعي - الخوارزمية وقوة الحوسبة والبيانات. تمتلك DePin حصريًا اثنين

يُنظر إلى تطوير الذكاء الاصطناعي عمومًا على أنه يعتمد على ثلاثة عناصر رئيسية: الخوارزميات وقوة الحوسبة والبيانات. تشير الخوارزميات إلى النماذج الرياضية ومنطق البرنامج الذي يحرك أنظمة الذكاء الاصطناعي، وتشير قوة الحوسبة إلى موارد الحوسبة المطلوبة لتنفيذ هذه الخوارزميات، والبيانات هي الأساس للتدريب وتحسين نماذج الذكاء الاصطناعي.

أي من العناصر الثلاثة هو الأكثر أهمية؟ قبل ظهور ChatGPT، كان الناس يفكرون بها عادةً على أنها خوارزمية، وإلا فلن تمتلئ المؤتمرات الأكاديمية وأوراق المجلات بضبط الخوارزمية واحدة تلو الأخرى. ولكن عندما تم الكشف عن ChatGPT ونموذج اللغة الكبير LLM الذي يدعم ذكائه، بدأ الناس يدركون أهمية الأخيرين. تعد قوة الحوسبة الضخمة شرطًا أساسيًا لولادة النماذج. تعد جودة البيانات وتنوعها أمرًا بالغ الأهمية لبناء نظام ذكاء اصطناعي قوي وفعال. وبالمقارنة، لم تعد متطلبات الخوارزميات صعبة كما كانت من قبل.

في عصر النماذج الكبيرة، انتقل الذكاء الاصطناعي من الضبط الدقيق إلى القوة الغاشمة، مع زيادة الطلب على القوة الحاسوبية والبيانات. تصادف أن DePin قادر على توفير ذلك. وستعمل الحوافز الرمزية على الاستفادة من السوق طويلة المدى، حيث ستصبح قوة الحوسبة والتخزين الضخمة على مستوى المستهلك أفضل تغذية للنماذج الكبيرة.

لامركزية الذكاء الاصطناعي ليست خيارًا، ولكنها ضرورة

بالطبع، قد يتساءل شخص ما، لماذا تختار DePin بدلاً من الخدمات المركزية عندما تتوفر كل من القوة الحسابية والبيانات في مراكز بيانات AWS، علاوة على ذلك، تتفوق AWS على DePin من حيث الاستقرار وتجربة المستخدم؟

هذا البيان له منطقه الطبيعي. بعد كل شيء، بالنظر إلى الوضع الحالي، يتم تطوير جميع النماذج الكبيرة تقريبًا بشكل مباشر أو غير مباشر من قبل شركات الإنترنت الكبيرة. خلف ChatGPT توجد مايكروسوفت، وخلف جيميني جوجل. في الصين، تمتلك كل شركة إنترنت كبرى تقريبًا نموذجًا كبيرًا. لماذا هذا؟ ذلك لأن شركات الإنترنت الكبيرة فقط هي التي تمتلك القوة الحاسوبية المدعومة ببيانات عالية الجودة وموارد مالية قوية. ولكن هذا غير صحيح. لم يعد الناس يريدون أن يتم التلاعب بهم من قبل عمالقة الإنترنت.

من ناحية أخرى، يحمل الذكاء الاصطناعي المركزي مخاطر خصوصية البيانات والأمن وقد يخضع للرقابة والتحكم. من ناحية أخرى، فإن الذكاء الاصطناعي الذي ينتجه عمالقة الإنترنت سيعزز اعتماد الناس، ويؤدي إلى تركيز السوق، ويزيد من الحواجز أمام الابتكار.

من: https://www.gensyn.ai/

يجب ألا تحتاج البشرية بعد الآن إلى مارتن لوثر في عصر الذكاء الاصطناعي. يجب أن يكون للناس الحق في التحدث مباشرة إلى الله.

DePin من منظور الأعمال: خفض التكلفة وزيادة الكفاءة أمران أساسيان

حتى لو وضعنا جانبًا النقاش بين قيم اللامركزية والمركزية، من منظور الأعمال، لا تزال هناك مزايا لاستخدام DePin للذكاء الاصطناعي.

أولاً، من المهم أن ندرك أنه على الرغم من أن عمالقة الإنترنت يتحكمون في عدد كبير من موارد بطاقات الرسومات المتطورة، إلا أن الجمع بين بطاقات الرسومات الخاصة بالمستهلك في أيدي الأفراد لا يزال بإمكانه تشكيل شبكة طاقة حوسبة كبيرة، تُعرف باسم التأثير الطويل لقوة الحوسبة. غالبًا ما تحتوي بطاقات الرسومات الخاصة بالمستهلك على معدلات خمول عالية. طالما أن الحوافز التي تقدمها DePin تتجاوز تكلفة الكهرباء، فإن المستخدمين لديهم الدافع للمساهمة بقوتهم الحاسوبية في الشبكة. بالإضافة إلى ذلك، مع قيام المستخدمين بإدارة البنية التحتية المادية بأنفسهم، لا تتحمل شبكة DePin التكاليف التشغيلية التي لا يمكن للموردين المركزيين تجنبها، ويمكنهم التركيز فقط على تصميم البروتوكول.

بالنسبة للبيانات، يمكن لشبكة DePin إطلاق العنان لإمكانية استخدام البيانات وتقليل تكاليف الإرسال من خلال الحوسبة المتطورة والطرق الأخرى. علاوة على ذلك، تتمتع معظم شبكات التخزين الموزعة بإمكانيات إلغاء البيانات المكررة تلقائيًا، مما يقلل الحاجة إلى التنظيف الشامل للبيانات في التدريب على الذكاء الاصطناعي.

أخيرًا، تعمل اقتصاديات التشفير التي جلبتها DePin على تعزيز تحمل أخطاء النظام ولديها القدرة على تحقيق وضع مربح للجانبين لمقدمي الخدمات والمستهلكين والمنصات.

صورة من: جامعة كاليفورنيا

في حالة عدم تصديق ذلك، تُظهر أحدث أبحاث UCLA أن استخدام الحوسبة اللامركزية يحقق أداءً أفضل 2.75 مرة من مجموعات GPU التقليدية بنفس التكلفة. على وجه التحديد، إنه أسرع بـ 1.22 مرة وأرخص بـ 4.83 مرة.

الطريق الصعب إلى الأمام: ما هي التحديات التي ستواجهها AixDePin؟

نختار الذهاب إلى القمر والقيام بأشياء أخرى في هذا العقد ليس لأنها سهلة، ولكن لأنها صعبة. — جون فيتزجيرالد كينيدي

لا يزال استخدام التخزين الموزع لـ DePin والحوسبة الموزعة لبناء نماذج الذكاء الاصطناعي بدون ثقة يمثل العديد من التحديات.

التحقق من العمل

بشكل أساسي، يعد كل من حساب نموذج التعلم العميق وتعدين PoW من أشكال الحساب العام، مع تغييرات الإشارة الأساسية بين دوائر البوابة. على المستوى الكلي، يعد تعدين PoW «حسابًا عديم الفائدة»، في محاولة للعثور على قيمة تجزئة ببادئة n من الأصفار من خلال إنشاء عدد لا يحصى من الأرقام العشوائية وحسابات دالة التجزئة. من ناحية أخرى، تعتبر حسابات التعلم العميق «حسابًا مفيدًا»، حيث يتم حساب قيم المعلمات لكل طبقة في التعلم العميق من خلال الانتشار الأمامي والخلفي، وبالتالي بناء نموذج ذكاء اصطناعي فعال.

والحقيقة هي أن «الحسابات غير المجدية» مثل تعدين PoW تستخدم وظائف التجزئة. من السهل حساب الصورة من الصورة الأصلية، ولكن من الصعب حساب الصورة الأصلية من الصورة، لذلك يمكن لأي شخص التحقق بسهولة وسرعة من صحة الحساب؛ لحساب نموذج التعلم العميق، نظرًا للهيكل الهرمي، يتم استخدام ناتج كل طبقة كمدخل للطبقة التالية. لذلك، يتطلب التحقق من صحة الحساب أداء جميع الأعمال السابقة، ولا يمكن التحقق منها ببساطة وفعالية.

صورة من: AWS

يعد التحقق من العمل أمرًا بالغ الأهمية، وإلا فلن يتمكن موفر الحساب من إجراء الحساب على الإطلاق وإرسال نتيجة تم إنشاؤها عشوائيًا.

تتمثل إحدى الأفكار في وجود خوادم مختلفة تؤدي نفس مهام الحوسبة والتحقق من فعالية العمل من خلال تكرار التنفيذ والتحقق مما إذا كان هو نفسه. ومع ذلك، فإن الغالبية العظمى من حسابات النماذج غير حتمية، ولا يمكن إعادة إنتاج نفس النتائج حتى في ظل نفس بيئة الحوسبة بالضبط، ويمكن أن تكون متشابهة فقط بالمعنى الإحصائي. بالإضافة إلى ذلك، سيؤدي العد المزدوج إلى زيادة سريعة في التكاليف، وهو ما يتعارض مع هدف DePin الرئيسي المتمثل في خفض التكاليف وزيادة الكفاءة.

فئة أخرى من الأفكار هي الآلية المتفائلة، التي تفترض بتفاؤل أن النتيجة محسوبة بشكل صحيح وتسمح لأي شخص بالتحقق من نتيجة الحساب. في حالة العثور على أي أخطاء، يمكن تقديم إثبات الاحتيال. يعاقب البروتوكول المحتال ويكافئ المبلغين عن المخالفات.

الموازاة

كما ذكرنا سابقًا، تستفيد DePin بشكل أساسي من سوق طاقة الحوسبة الاستهلاكية طويلة الذيل، مما يعني أن قوة الحوسبة التي يوفرها جهاز واحد محدودة نسبيًا. بالنسبة لنماذج الذكاء الاصطناعي الكبيرة، سيستغرق التدريب على جهاز واحد وقتًا طويلاً جدًا، ويجب استخدام التوازي لتقصير وقت التدريب.

تكمن الصعوبة الرئيسية في موازاة تدريب التعلم العميق في التبعية بين المهام السابقة واللاحقة، مما يجعل من الصعب تحقيق الموازاة.

حاليًا، تنقسم موازاة التدريب على التعلم العميق بشكل أساسي إلى توازي البيانات وتوازي النموذج.

يشير توازي البيانات إلى توزيع البيانات عبر أجهزة متعددة. تقوم كل آلة بحفظ جميع المعلمات الخاصة بالنموذج، وتستخدم البيانات المحلية للتدريب، وأخيراً تقوم بتجميع المعلمات الخاصة بكل جهاز. يعمل التوازي بين البيانات بشكل جيد عندما تكون كمية البيانات كبيرة، ولكنه يتطلب اتصالًا متزامنًا لتجميع المعلمات.

يعني التوازي النموذجي أنه عندما يكون حجم النموذج كبيرًا جدًا بحيث لا يتناسب مع جهاز واحد، يمكن تقسيم النموذج على أجهزة متعددة، ويقوم كل جهاز بحفظ جزء من معايير النموذج. تتطلب عمليات الانتشار الأمامية والخلفية الاتصال بين الأجهزة المختلفة. يتميز التوازي النموذجي بمزايا عندما يكون النموذج كبيرًا، ولكن عبء الاتصال أثناء الانتشار الأمامي والخلفي يكون كبيرًا.

يمكن تقسيم معلومات التدرج بين الطبقات المختلفة إلى تحديث متزامن وتحديث غير متزامن. التحديث المتزامن بسيط ومباشر، ولكنه سيزيد من وقت الانتظار؛ تحتوي خوارزمية التحديث غير المتزامن على وقت انتظار قصير، ولكنها ستؤدي إلى مشاكل الاستقرار.

الصورة من: جامعة ستانفورد، التعلم العميق الموازي والموزع

الخصوصية

يتزايد الاتجاه العالمي لحماية الخصوصية الشخصية، وتعمل الحكومات في جميع أنحاء العالم على تعزيز حماية أمن خصوصية البيانات الشخصية. على الرغم من أن الذكاء الاصطناعي يستخدم مجموعات البيانات العامة على نطاق واسع، فإن ما يميز حقًا نماذج الذكاء الاصطناعي المختلفة هو بيانات المستخدم الخاصة بكل مؤسسة.

كيف تحصل على فوائد البيانات الاحتكارية أثناء التدريب دون الكشف عن الخصوصية؟ كيف يمكن التأكد من عدم تسريب معايير نموذج الذكاء الاصطناعي المدمج؟

هذان جانبان من جوانب الخصوصية وخصوصية البيانات وخصوصية النموذج. تحمي خصوصية البيانات المستخدمين، بينما تحمي خصوصية النموذج المؤسسة التي تبني النموذج. في السيناريو الحالي، تعد خصوصية البيانات أكثر أهمية بكثير من خصوصية النموذج.

تتم محاولة مجموعة متنوعة من الحلول لمعالجة مشكلة الخصوصية. يضمن التعلم الموحد خصوصية البيانات من خلال التدريب على مصدر البيانات، والحفاظ على البيانات محليًا، ونقل معايير النموذج؛ وقد يصبح دليل عدم المعرفة نجمًا صاعدًا.

تحليل الحالة: ما هي المشاريع عالية الجودة في السوق؟

جينسين

Gensyn عبارة عن شبكة حوسبة موزعة مصممة لتدريب نماذج الذكاء الاصطناعي. تستخدم الشبكة سلسلة بلوكشين من الطبقة الأولى تعتمد على Polkadot للتحقق من التنفيذ السليم لمهام التعلم العميق وتشغيل المدفوعات من خلال الأوامر. تأسست في عام 2020، وكشفت عن جولة تمويل من السلسلة A بقيمة 43 مليون دولار في يونيو 2023، مع قيادة a16z للاستثمار.

يستخدم Gensyn البيانات الوصفية لعملية التحسين القائمة على التدرج لإنشاء شهادات العمل المنجز، والتي يتم تنفيذها باستمرار بواسطة بروتوكول دقيق متعدد الحبيبات قائم على الرسم البياني ومقيم متقاطع للسماح بإعادة تشغيل مهام التحقق ومقارنتها من أجل الاتساق، وفي النهاية من خلال السلسلة تأكد من ذلك بنفسك لضمان صحة الحساب. لتعزيز موثوقية التحقق من العمل، تقدم Gensyn ميزة Staking لإنشاء حوافز.

هناك أربعة أنواع من المشاركين في النظام: المرسلون والمحللون والمدققون والمبلغون عن المخالفات.

• مقدمو الطلبات هم المستخدمون النهائيون للنظام الذين يقدمون المهام التي سيتم حسابها ويتم الدفع لهم مقابل وحدات العمل المكتملة.
• المحلل هو العامل الرئيسي للنظام، حيث يقوم بالتدريب النموذجي ويولد البراهين للتفتيش من قبل المدقق.
• أداة التحقق هي المفتاح لربط عملية التدريب غير الحتمية بالحساب الخطي الحتمي، وتكرار براهين الحل الجزئي ومقارنة المسافات بالعتبات المتوقعة.
• المُبلغ عن المخالفات هو خط الدفاع الأخير، حيث يقوم بالتحقق من عمل المدقق ورفع التحديات، ويتلقى المكافآت بعد اجتياز التحدي.

يحتاج المحلل إلى تقديم تعهد، ويقوم المُبلغ عن المخالفات باختبار عمل المحلل. إذا اكتشف الشر، فسوف يتحداه. بعد اجتياز التحدي، سيتم تغريم الرموز التي راهن عليها المحلل وستتم مكافأة المُبلغ عن المخالفات.

وفقًا لتوقعات Gensyn، من المتوقع أن يقلل هذا الحل تكاليف التدريب إلى 1/5 من تكاليف مقدمي الخدمات المركزية.

المصدر: جينسين

FedML

FedML عبارة عن منصة تعاونية لامركزية للتعلم الآلي للذكاء الاصطناعي اللامركزي والتعاوني، في أي مكان وعلى أي نطاق. وبشكل أكثر تحديدًا، يوفر FedML نظامًا بيئيًا لـ MLOPs يقوم بتدريب نماذج التعلم الآلي ونشرها ومراقبتها وتحسينها باستمرار مع التعاون في البيانات والنماذج وموارد الحوسبة المجمعة بطريقة تحافظ على الخصوصية. تأسست FedML في عام 2022، وكشفت عن جولة بذور بقيمة 6 ملايين دولار في مارس 2023.

يتكون FedML من مكونين رئيسيين: FedML-API و FedML-core، اللذين يمثلان واجهة برمجة تطبيقات عالية المستوى وواجهة برمجة تطبيقات منخفضة المستوى على التوالي.

يتضمن FedML-core وحدتين مستقلتين: الاتصالات الموزعة والتدريب النموذجي. وحدة الاتصال مسؤولة عن التواصل الأساسي بين مختلف العمال/العملاء وتستند إلى MPI؛ تعتمد وحدة التدريب النموذجية على PyTorch.

تم بناء واجهة برمجة تطبيقات FedML-API على نواة FedML. باستخدام FedML-core، يمكن تنفيذ الخوارزميات الموزعة الجديدة بسهولة من خلال اعتماد واجهات برمجة موجهة للعميل.

يوضح أحدث عمل من فريق FedML أن استخدام FedML Nexus AI لاستدلال نموذج الذكاء الاصطناعي على GPU RTX 4090 من فئة المستهلك أرخص 20 مرة وأسرع 1.88 مرة من استخدام A100.

من: FedML

النظرة المستقبلية: DePin يجلب إضفاء الطابع الديمقراطي على الذكاء الاصطناعي

في يوم من الأيام، سيتطور الذكاء الاصطناعي إلى الذكاء الاصطناعي العام، وستصبح قوة الحوسبة العملة العالمية الفعلية. ستقوم DePin بإجراء هذه العملية مسبقًا.

أدى التقاطع والتعاون بين الذكاء الاصطناعي و DePin إلى فتح نقطة جديدة تمامًا للنمو التكنولوجي، مما يوفر فرصًا هائلة لتطوير الذكاء الاصطناعي. يوفر DePin للذكاء الاصطناعي قوة وبيانات حوسبة موزعة هائلة، مما يساعد على تدريب النماذج الأكبر حجمًا وتحقيق ذكاء أقوى. في الوقت نفسه، يسمح DePin أيضًا للذكاء الاصطناعي بالتطور نحو اتجاه أكثر انفتاحًا وأمانًا وموثوقية، مما يقلل الاعتماد على بنية تحتية مركزية واحدة.

بالنظر إلى المستقبل، سيستمر الذكاء الاصطناعي و DePin في التطور بالتآزر. ستوفر الشبكات الموزعة أساسًا قويًا لتدريب النماذج فائقة الحجم، والتي ستلعب دورًا مهمًا في تطبيقات DePin. مع حماية الخصوصية والأمان، سيساهم الذكاء الاصطناعي أيضًا في تحسين بروتوكولات وخوارزميات شبكة DePin. نتطلع إلى أن يجلب الذكاء الاصطناعي و DePin عالمًا رقميًا أكثر كفاءة وعدالة وجدارة بالثقة.

إخلاء المسؤولية:

  1. تمت إعادة طباعة هذه المقالة من []. جميع حقوق التأليف والنشر تنتمي إلى المؤلف الأصلي [**]. إذا كانت هناك اعتراضات على إعادة الطبع هذه، فيرجى الاتصال بفريق Gate Learn ، وسيتعاملون معها على الفور.
  2. إخلاء المسؤولية:
    الآراء ووجهات النظر الواردة في هذه المقالة هي فقط آراء المؤلف ولا تشكل أي نصيحة استثمارية.
  3. تتم ترجمة المقالة إلى لغات أخرى بواسطة فريق Gate Learn. ما لم يُذكر ذلك، يُحظر نسخ المقالات المترجمة أو توزيعها أو سرقتها.
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!
立即註冊