أصبح تشغيل أحمال عمل الذكاء الاصطناعي متاحًا على جهاز افتراضي قريب منك، مدعومًا بوحدات معالجة الرسومات وKubernetes

  • Sep 06, 2023

التشغيل: يوفر الذكاء الاصطناعي طبقة افتراضية للذكاء الاصطناعي، تهدف إلى تسهيل البنية التحتية للذكاء الاصطناعي. إنها تشهد الكثير من الجذب وقد جمعت للتو جولة تمويل من السلسلة C بقيمة 75 مليون دولار. وإليك كيف ساهم تطور مشهد الذكاء الاصطناعي في تشكيل نموه.

هولجر-لينك-724884-unsplash.jpg

التشغيل: يوفر الذكاء الاصطناعي طبقة افتراضية لتشغيل أعباء عمل الذكاء الاصطناعي

الصورة بواسطة هولجر لينك على Unsplash

التشغيل: يأخذ الذكاء الاصطناعي الذكاء الاصطناعي الخاص بك ويقوم بتشغيله على مجموعة برامج المستقبل فائقة السرعة. كان هذا هو العنوان الرئيسي لدينا مقالة 2019 عن Run: AI، والتي كانت قد خرجت للتو من التخفي. على الرغم من أننا نحب أن نعتقد أنه لا يزال دقيقًا، إلا أن النهج غير التقليدي للذكاء الاصطناعي Run: شهد نموًا سريعًا منذ ذلك الحين.

تشغيل: منظمة العفو الدولية، التي تروج لنفسها على أنها "منصة تنسيق للذكاء الاصطناعي"، اليوم أنها جمعت 75 مليون دولار جولة السلسلة C بقيادة شركة Tiger Global Management وInsight Partners، التي قادت السلسلة B السابقة دائري. تتضمن الجولة مشاركة مستثمرين حاليين إضافيين، TLV Partners وS Capital VC، ليصل إجمالي التمويل الذي تم جمعه حتى الآن إلى 118 مليون دولار.

التقينا مع أومري جيلر، الرئيس التنفيذي والمؤسس المشارك لشركة Run: AI، لمناقشة شرائح الذكاء الاصطناعي والبنية التحتية، وRun: تقدم الذكاء الاصطناعي، والتفاعل بينهما.

أيضًا: تقدم H2O.ai البرمجة اللغوية العصبية (NLP) المدعومة بالذكاء الاصطناعي إلى المؤسسة

تعتبر شرائح الذكاء الاصطناعي رائعة، لكن وحدات معالجة الرسوميات Nvidia هي السائدة

التشغيل: يقدم الذكاء الاصطناعي طبقة برمجية تسمى Atlas لتسريع تنفيذ أحمال عمل التعلم الآلي، داخل المؤسسة وفي السحابة. بشكل أساسي، يعمل Atlas كجهاز افتراضي لأحمال عمل الذكاء الاصطناعي: فهو يلخص ويبسط الوصول إلى الأجهزة الأساسية.

ابتكار

  • لقد قمت بتجربة Apple Vision Pro وهو متقدم جدًا عما توقعته
  • جهاز الاتصال عبر الأقمار الصناعية الصغير هذا مليء بالميزات وراحة البال
  • كيفية استخدام ChatGPT: كل ما تحتاج إلى معرفته
  • هذه هي أدوات الذكاء الاصطناعي الخمسة المفضلة لدي في العمل

يبدو هذا حلاً غير تقليدي، مع الأخذ في الاعتبار تلك الحكمة التقليدية لأعباء عمل الذكاء الاصطناعي يملي البقاء على مقربة من المعدن قدر الإمكان للحصول على أكبر قدر ممكن من الأداء من شرائح الذكاء الاصطناعي ممكن. ومع ذلك، تأتي بعض الفوائد من وجود شيء مثل Atlas يتوسط الوصول إلى الأجهزة الأساسية.

بطريقة ما، إنها معضلة قديمة في مجال تكنولوجيا المعلومات، تظهر مرة أخرى. في الأيام الأولى لتطوير البرمجيات، كانت المعضلة هي ما إذا كان يجب البرمجة باستخدام لغات منخفضة المستوى مثل Assembly أو C أو لغات عالية المستوى مثل Java. يوفر الوصول منخفض المستوى أداءً أفضل، ولكن الجانب الآخر هو التعقيد.

توفر طبقة المحاكاة الافتراضية للأجهزة المستخدمة لأحمال عمل الذكاء الاصطناعي نفس الفوائد من حيث التجريد وسهولة الاستخدام، بالإضافة إلى الفوائد الأخرى التي تأتي من تبسيط الوصول إلى الأجهزة. على سبيل المثال، القدرة على تقديم تحليلات حول استخدام الموارد أو القدرة على تحسين أعباء العمل للنشر على الأجهزة الأكثر ملاءمة.

ومع ذلك، علينا أن نعترف أنه على الرغم من أن Run: AI قد حقق الكثير من التقدم منذ عام 2019، إلا أنه لم يتقدم تمامًا كما كنا نعتقد. أو كما يعتقد جيلر نفسه، في هذا الصدد. مرة أخرى في عام 2019، رأينا تشغيل: الذكاء الاصطناعي كوسيلة لاستخلاص العديد من شرائح الذكاء الاصطناعي المختلفة.

في البداية، دعم Run: AI وحدات معالجة الرسومات Nvidia، بهدف إضافة دعم لوحدات TPU من Google بالإضافة إلى شرائح الذكاء الاصطناعي الأخرى في الإصدارات اللاحقة. ومنذ ذلك الحين، كان هناك متسع من الوقت؛ ومع ذلك، لا يزال Run: AI Atlas يدعم وحدات معالجة الرسومات Nvidia فقط. وبما أن المنصة تطورت بطرق مهمة أخرى، فمن الواضح أن هذا كان خيارًا استراتيجيًا.

السبب، كما يقول جيلر، بسيط: جذب السوق. تعد وحدات معالجة الرسوميات Nvidia إلى حد كبير ما يستخدمه عملاء Run: AI لأحمال عمل الذكاء الاصطناعي الخاصة بهم. Run: يشهد الذكاء الاصطناعي نفسه الكثير من الاهتمام، مع عملاء مثل Wayve وLondon Medical Imaging و مركز الذكاء الاصطناعي للرعاية الصحية القائمة على القيمة، عبر قطاعات مثل التمويل والسيارات والرعاية الصحية وغيرها الألعاب.

اليوم، هناك خيارات واسعة تتجاوز وحدات معالجة الرسومات Nvidia لأحمال عمل الذكاء الاصطناعي. تتراوح الخيارات بين حلول البائعين السحابية التي تم تطويرها داخليًا، مثل جوجل TPU أو AWS Graviton وTrainiumللبائعين المستقلين مثل Blaize أو Cerebras أو GraphCore أو SambaNova، مثيلات Intel المستندة إلى Habana على AWS، او حتى باستخدام وحدات المعالجة المركزية.

ومع ذلك، فإن خبرة جيلر الميدانية تشير إلى أن المؤسسات لا تبحث فقط عن طريقة فعالة من حيث التكلفة لتدريب النماذج ونشرها. إنهم يبحثون أيضًا عن طريقة بسيطة للتفاعل مع الأجهزة، وهذا هو السبب الرئيسي وراء استمرار سيطرة Nvidia. بمعنى آخر، كل هذا موجود في حزمة البرامج. وهذا بحسب ما حدده العديد من المحللين.

ومع ذلك، كنا نتساءل عما إذا كان الوعد بالأداء المتفوق قد يجذب المؤسسات أم لا منافسي نفيديا لقد تمكنوا بطريقة ما من سد الفجوة فيما يتعلق بتطوير مجموعة البرامج الخاصة بهم واعتمادها.

تجربة جيلر هي أنه على الرغم من العرف قد تجتذب رقائق الذكاء الاصطناعي المؤسسات التي لديها أعباء عمل ذات ملفات تعريف محددة موجهة نحو الأداء، فإن اعتمادها السائد لا يزال منخفضًا. ومع ذلك، فإن ما يراه الذكاء الاصطناعي هو زيادة الطلب على وحدات معالجة الرسوميات غير Nvidia. سواء كان ذلك ايه ام دي MI200 أو إنتل بونتي فيكيوويرى جيلر أن المؤسسات تتطلع إلى استخدام المزيد من وحدات معالجة الرسومات في المستقبل القريب.

Kubernetes للذكاء الاصطناعي

إن هيمنة Nvidia ليست هي السبب الوحيد الذي جعل تطوير منتجات Run: AI يسير على ما يرام. الاتجاه الآخر الذي شكل عرض Run: AI كان صعود Kubernetes. يعتقد جيلر أن Kubernetes هي واحدة من أهم الأجزاء في بناء مكدس الذكاء الاصطناعي، حيث يتم استخدام الحاويات بكثافة في علم البيانات - وكذلك في مجالات أخرى.

ومع ذلك، ذهب جيلر إلى إضافة، لم يتم تصميم Kubernetes لتشغيل أحمال عمل عالية الأداء على شرائح الذكاء الاصطناعي - تم تصميمه لتشغيل الخدمات على وحدات المعالجة المركزية الكلاسيكية. لذلك، هناك العديد من الأشياء المفقودة في Kubernetes من أجل تشغيل التطبيقات بكفاءة باستخدام الحاويات.

لقد استغرق الأمر Run: AI بعض الوقت للتعرف على ذلك. ومع ذلك، بمجرد قيامهم بذلك، كان قرارهم هو بناء برنامجهم كمكون إضافي لـ Kubernetes لإنشاء ما أسماه جيلر "Kubernetes for AI". من أجل الامتناع عن اتخاذ خيارات خاصة بالبائعين، ظلت بنية Run: AI's Kubernetes متوافقة على نطاق واسع. وقال جيلر إن الشركة دخلت في شراكة مع جميع بائعي Kubernetes، ويمكن للمستخدمين استخدام Run: AI بغض النظر عن منصة Kubernetes التي يستخدمونها.

بمرور الوقت، قامت Run: AI ببناء نظام بيئي شريك بارز، بما في ذلك أمثال Dell وHP Enterprise وNvidia وNetApp وOpenShift. بالإضافة إلى ذلك، تطورت منصة أطلس أيضًا من حيث العرض والعمق. وأبرزها، Run: AI يدعم الآن كلاً من أعباء عمل التدريب والاستدلال. نظرًا لأن الاستدلال عادةً ما يمثل الجزء الأكبر من التكاليف التشغيلية للذكاء الاصطناعي في الإنتاج، فهذا مهم حقًا.

بالإضافة إلى ذلك، يتكامل Run: AI Atlas الآن مع عدد من أطر التعلم الآلي وأدوات MLOps وعروض السحابة العامة. وتشمل هذه الأوزان والتحيزات، وTensorFlow، وPyTorch، وPyCharm، وVisual Studio، وJupyterHub، بالإضافة إلى Nvidia Triton Inference Server وNGC، وSeldon، وAirFlow، وKubeFlow، وMLflow، على التوالي.

أيضًا: تكشف Rendered.ai عن منصة كخدمة لإنشاء بيانات تركيبية لتدريب نماذج الذكاء الاصطناعي

وقال جيلر إنه حتى الأطر التي لم يتم دمجها مسبقًا يمكن دمجها بسهولة نسبية، طالما أنها تعمل في حاويات أعلى Kubernetes. فيما يتعلق بالمنصات السحابية، تعمل Run: AI مع جميع موفري الخدمات السحابية الثلاثة الرئيسيين (AWS وGoogle Cloud وMicrosoft Azure)، وكذلك داخل الشركة. وأشار جيلر إلى أن السحابة الهجينة هي ما يرونه في عمليات نشر العملاء.

التشغيل: يرى الذكاء الاصطناعي البنية التحتية للذكاء الاصطناعي على أنها مجموعة من الطبقات

تشغيل: منظمة العفو الدولية

على الرغم من أن واقع السوق Run: AI يعمل على قلب بعض التخطيط الأولي رأساً على عقب، مما يجعل الشركة تسعى إلى المزيد خيارات التشغيل بدلاً من توسيع الدعم لمزيد من شرائح الذكاء الاصطناعي، هذا لا يعني أنه لم يكن هناك أي تقدم في مجال الذكاء الاصطناعي الجبهة الفنية.

التشغيل: تُعرف الإنجازات التقنية الرئيسية للذكاء الاصطناعي بأسماء المشاركة الجزئية لوحدة معالجة الرسومات، وتوفير وحدة معالجة الرسومات الرفيعة، وتبديل الوظائف. تتيح المشاركة الجزئية لوحدة معالجة الرسومات تشغيل العديد من الحاويات على وحدة معالجة رسومات واحدة مع الحفاظ على كل حاوية معزولة وبدون تغييرات في التعليمات البرمجية أو عقوبات على الأداء.

ما فعله VMware لوحدات المعالجة المركزية، Run: AI يفعله لوحدات معالجة الرسومات، في نظام بيئي للحاويات تحت Kubernetes، بدون برامج مراقبة، كما قال جيلر. أما بالنسبة للتوفير الدقيق وتبديل الوظائف، فإن ذلك يمكّن النظام الأساسي من تحديد التطبيقات عدم استخدام الموارد المخصصة في كل نقطة زمنية، وإعادة تخصيص تلك الموارد ديناميكيًا ضروري.

والجدير بالذكر أن Run: AI تم تضمينه في تم نشر تقرير Forrester Wave AI Infrastructure في الربع الأخير من عام 2021. تتمتع الشركة بمكانة فريدة بين موردي البنية التحتية للذكاء الاصطناعي، والتي تشمل البائعين السحابيين وNvidia وGPU OEMs.

وقال جيلر إن جميعهم هم شركاء Run: AI، حيث أنهم يمثلون البنية التحتية لتشغيل التطبيقات عليها. ويرى جيلر أن هذا عبارة عن كومة، مع الأجهزة في الطبقة السفلية، وهي طبقة وسيطة تعمل كطبقة وسطى الواجهة لعلماء البيانات ومهندسي التعلم الآلي وتطبيقات الذكاء الاصطناعي في الأعلى طبقة.

التشغيل: يشهد الذكاء الاصطناعي جذبًا جيدًا، مما يؤدي إلى زيادة إيراداته السنوية المتكررة بمقدار 9 أضعاف والموظفين بمقدار 3 أضعاف في عام 2021. وتخطط الشركة لاستخدام هذا الاستثمار لزيادة نمو فرقها العالمية وستفكر أيضًا في عمليات الاستحواذ الإستراتيجية أثناء تطويرها وتعزيز منصتها.

الذكاء الاصطناعي

7 نصائح متقدمة للكتابة السريعة في ChatGPT تحتاج إلى معرفتها
أفضل 10 ملحقات ChatGPT لعام 2023 (وكيفية تحقيق أقصى استفادة منها)
لقد اختبرت الكثير من أدوات الذكاء الاصطناعي للعمل. هذه هي المفضلة لدي 5 حتى الآن
الإنسان أو بوت؟ تضع لعبة اختبار تورينج هذه مهاراتك في اكتشاف الذكاء الاصطناعي تحت الاختبار
  • 7 نصائح متقدمة للكتابة السريعة في ChatGPT تحتاج إلى معرفتها
  • أفضل 10 ملحقات ChatGPT لعام 2023 (وكيفية تحقيق أقصى استفادة منها)
  • لقد اختبرت الكثير من أدوات الذكاء الاصطناعي للعمل. هذه هي المفضلة لدي 5 حتى الآن
  • الإنسان أو بوت؟ تضع لعبة اختبار تورينج هذه مهاراتك في اكتشاف الذكاء الاصطناعي تحت الاختبار