داخل الصندوق الأسود: فهم عملية صنع القرار في مجال الذكاء الاصطناعي

  • Sep 05, 2023

يزداد تأثير خوارزميات الذكاء الاصطناعي في حياة الناس، لكن أعمالها الداخلية غالبا ما تكون غامضة. نحن ندرس السبب، ونستكشف ما يتم فعله حيال ذلك.

ai-ml-intro-header.jpg
الصورة: غيتي إميجز / آي ستوك فوتو

الشبكات العصبية، وأنظمة التعلم الآلي، والتحليلات التنبؤية، والتعرف على الكلام، وفهم اللغة الطبيعية وغيرها تشهد مكونات ما يُعرف على نطاق واسع باسم "الذكاء الاصطناعي" (AI) حاليًا طفرة: فالأبحاث تتقدم بسرعة، وصل اهتمام وسائل الإعلام إلى أعلى مستوياته على الإطلاق، وتقوم المؤسسات بشكل متزايد بتنفيذ حلول الذكاء الاصطناعي سعياً وراء الأتمتة الكفاءات.

تحميل مجاني

تقرير خاص: كيفية تنفيذ الذكاء الاصطناعي والتعلم الآلي

يمكنك تحميل جميع المقالات في هذه السلسلة في ملف PDF واحد. إنه مجاني لأعضاء ZDNet وTechRepublic المسجلين.

اقرا الان

أول شيء يجب تحديده هو ما نحن عليه لا نتحدث عنه، وهو الذكاء الاصطناعي على المستوى البشري - والذي يطلق عليه غالبًا "الذكاء الاصطناعي القوي" أو "الذكاء العام الاصطناعي" (AGI). تم إجراء دراسة استقصائية بين أربع مجموعات من الخبراء في 2012/13 بواسطة باحثي الذكاء الاصطناعي فنسنت سي. أفاد مولر ونيك بوستروم أن هناك فرصة بنسبة 50% لتطوير الذكاء الاصطناعي العام بين عامي 2040 و2050، وترتفع إلى 90% بحلول عام 2075؛ ما يسمى "

الذكاء الفائق"- والذي يعرّفه بوستروم بأنه "أي عقل يتجاوز إلى حد كبير الأداء المعرفي للبشر في جميع مجالات الاهتمام تقريبًا" - كان متوقعًا بعد حوالي 30 عامًا من تحقيق الذكاء الاصطناعي العام (القضايا الأساسية للذكاء الاصطناعي، الفصل 33). هذه الأشياء سوف تحدث، وهي تحتاج بالتأكيد دراسة متأنية، لكن هذا لا يحدث الآن.

ماذا يكون ما يحدث الآن، بوتيرة متزايدة، هو تطبيق خوارزميات الذكاء الاصطناعي على جميع أنواع العمليات التي يمكن أن تؤثر بشكل كبير على حياة الناس - في العمل، في المنزل وأثناء سفرهم. على الرغم من أن الضجيج حول هذه التقنيات يقترب من "ذروة التوقعات" (بالمعنى الحرفيجارتنر)، هناك ذبابة محتملة في مرهم الذكاء الاصطناعي: عمل العديد من هذه الخوارزميات ليست مفتوحة للتدقيق - إما لأنها أصول مملوكة لمنظمة ما أو لأنها غامضة بطبيعتها طبيعة.

إذا لم يتم التعامل مع مثل هذه المخاوف بشكل صحيح، فقد تساعد في تحويل التوقعات المبالغ فيها بشأن الذكاء الاصطناعي إلى ردة فعل عكسية («حوض خيبة الأمل» بحسب جارتنر).

تقترب العديد من التقنيات المرتبطة بالذكاء الاصطناعي، أو وصلت بالفعل، إلى "ذروة التوقعات المتضخمة" في دورة الضجيج التي تقدمها شركة Gartner، مع انتظار "قاع خيبة الأمل" الناجم عن ردود الفعل العكسية.

الصورة: جارتنر / التعليقات التوضيحية: ZDNet

إليك مثال: في مايو من هذا العام، كومباس، وهي خوارزمية خاصة لتقييم المخاطر تُستخدم على نطاق واسع لاتخاذ قرار بشأن الحرية أو السجن زعمت الصحافة الاستقصائية عبر الإنترنت أن المتهمين الذين مروا عبر نظام العدالة الجنائية الأمريكي موقع بروبوبليكا ليكونوا متحيزين بشكل منهجي ضد الأمريكيين من أصل أفريقي مقارنة بالبيض. بالرغم من نورثبوينت (الشركة الربحية وراء كومباس) المتنازع عليها التحليل الإحصائي لـ ProPublica، وتوليده مزيد من الجدلفإن الاستخدام الواسع النطاق لخوارزميات الملكية الخاضعة لحراسة مشددة في المجالات الحساسة مثل العدالة الجنائية يعد مدعاة للقلق على أقل تقدير.

في بعض الأحيان، يمكن تقديم التحيز عبر البيانات التي يتم تدريب الخوارزميات القائمة على الشبكة العصبية عليها. في يوليو من هذا العام، على سبيل المثال، راشيل تاتمان، زميلة أبحاث الدراسات العليا في المؤسسة الوطنية للعلوم وجد قسم اللغويات بجامعة واشنطن أن أداء نظام التعرف على الكلام من Google أفضل لأصوات الذكور من أصوات الإناث عند التسميات التوضيحية التلقائية لعينة من مقاطع فيديو يوتيوب، وهي النتيجة التي أرجعتها إلى "مجموعات التدريب غير المتوازنة" مع غلبة المتحدثين الذكور. كما أشار تاتمان، فإن بعض التسميات التوضيحية غير الصحيحة على YouTube لن تسبب أي ضرر، ولكن خطابًا مشابهًا على سبيل المثال، قد تكون تحيزات التعرف في التطبيقات الطبية أو تطبيقات السيارات المتصلة بالإنترنت مسألة أخرى كليا.

على الرغم من أن الذكاء الاصطناعي غالبًا ما يُساوى بالشبكات العصبية "للتعلم العميق"، إلا أن النظام البيئي للذكاء الاصطناعي يشمل العديد من أنواع الخوارزميات.

الصورة: علم السرد

الشبكات العصبية بمثابة "الصناديق السوداء"

تمثل الشبكات العصبية مصدر قلق خاص ليس فقط لأنها عنصر أساسي في العديد من تطبيقات الذكاء الاصطناعي - بما في ذلك التعرف على الصور، والتعرف على الكلام، والتقنيات الطبيعية. فهم اللغة والترجمة الآلية - ولكن أيضًا لأنها تشبه "الصندوق الأسود" عندما يتعلق الأمر بتوضيح كيفية ظهور نتائجها بالضبط ولدت.

تسمى الشبكات العصبية بهذا الاسم لأنها تحاكي، إلى حد ما، الطريقة التي يتم بها بناء الدماغ البشري: فهي مبنية من طبقات مترابطة، تشبه الخلايا العصبية، العقد وتشتمل على طبقة إدخال وطبقة إخراج وعدد متغير من الطبقات المتوسطة "المخفية" - تحتوي الشبكات العصبية "العميقة" على أكثر من طبقة مخفية فقط طبقة. تقوم العقد نفسها بعمليات رياضية بسيطة نسبيًا، ولكن فيما بينها بعد التدريب يمكنه معالجة البيانات غير المرئية مسبقًا وإنشاء النتائج الصحيحة بناءً على ما تم تعلمه من بيانات التدريب.

هيكل وتدريب الشبكات العصبية العميقة.

الصورة: فارق بسيط

مفتاح التدريب هو عملية تسمى "الانتشار الخلفي'، حيث يتم إدخال الأمثلة المسماة في النظام ويتم تعديل إعدادات الطبقة المتوسطة تدريجيًا حتى توفر طبقة الإخراج تطابقًا مثاليًا مع طبقة الإدخال.

يعد إنشاء نموذج يعطي نتائج دقيقة ببيانات غير مرئية من قبل أمرًا واحدًا، ولكن -- كما تمت مناقشته في وقت سابق - في العديد من تطبيقات العالم الحقيقي، سيكون من المرغوب فيه فحص عملية صنع القرار الداخلي فيها التفاصيل.

نيلز لينكي، مدير أول لأبحاث الشركات في فارق بسيط، يعترف بالمشكلة: "إنه موضوع مثير للاهتمام وذو صلة للغاية، لأنه بالمقارنة، على سبيل المثال، مع الأنظمة القائمة على القواعد، فإن الشبكات العصبية أو خوارزميات التعلم الآلي الأخرى ليست بهذه الشفافية. ليس من الواضح دائمًا ما يحدث في الداخل - فأنت تترك الشبكة تنظم نفسها، ولكن هذا يعني حقًا أنها تنظم نفسها: ولا تخبرك بالضرورة كيف فعلت ذلك."

النظر داخل الصندوق الأسود

تمت معالجة مشكلة "الصندوق الأسود" هذه في ملف ورقة حديثة من مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL) التابع لمعهد ماساتشوستس للتكنولوجيا (MIT)، والذي فحص الخلايا العصبية شبكات مدربة على البيانات النصية باستخدام نظام يتكون من وحدتين - "المولد" و"المولد". "التشفير". يستخرج المولد الأجزاء الرئيسية من النص من بيانات التدريب، مما يعطي درجات عالية للسلاسل القصيرة والمتماسكة؛ ثم يتم تمريرها إلى المستخرج الذي يقوم بمهمة التصنيف. الهدف هو زيادة درجات المولد ودقة تنبؤات المستخرج إلى الحد الأقصى.

ولتقييم مدى نجاح هذا النظام، كانت إحدى مجموعات البيانات التدريبية التي استخدمها الباحثون عبارة عن مجموعة من حوالي 1500 مراجعة من موقع ويب مخصص للبيرة. تمت إضافة تعليقات توضيحية يدويًا لألف أو نحو ذلك من هذه المراجعات للإشارة إلى المراسلات بين جمل معينة ودرجات المراجعين (من 1 إلى 5) فيما يتعلق بالمظهر والرائحة والحنك. إذا تمكنت الشبكة العصبية المولدة/المستخرجة من تحديد نفس الجمل وربطها بنفس تقييمات المراجعين، فإنها ستمارس حكمًا شبيهًا بالحكم البشري.

وكانت النتائج مثيرة للإعجاب، حيث أظهرت الشبكة العصبية مستويات عالية من الاتفاق مع الشروح البشرية المظهر (96.3%) والرائحة (95.1%)، على الرغم من أنه كان أقل ثقة قليلاً فيما يتعلق بالمفهوم الأكثر صرامة للحنك. (80.2%).

وفقا لمعهد ماساتشوستس للتكنولوجيا لقد طبق الباحثون أسلوبهم في استخلاص الأسباب المنطقية على البيانات الطبية، سواء المستندة إلى النصوص (علم الأمراض أو علم الأمراض). تقارير عن خزعات الثدي) وتصوير الثدي بالأشعة السينية (التصوير الشعاعي للثدي)، على الرغم من عدم توفر تقرير منشور عن هذا العمل حتى الآن.

يد انسانية مساعدة

هذه تطورات مشجعة، ولكن ماذا نفعل إذا لم يكن من الممكن الوثوق بنظام الذكاء الاصطناعي الحالي لاتخاذ قرارات مهمة من تلقاء نفسه؟

يوضح نيلز لينكي من Nuance الخيارات: "أول شيء تحتاجه في حالات أكثر تحديدًا هو مقياس الثقة، لذلك ليس فقط هل تحصل على نتيجة من الشبكة العصبية، ولكنك أيضًا تفهم مدى ثقتها في أن لديها الحق نتيجة. يمكن أن يساعدك ذلك على اتخاذ القرارات - هل تحتاج إلى أدلة إضافية، هل تحتاج إلى إنسان للنظر في النتيجة، هل يمكنك أخذها على محمل الجد؟"

"ثم عليك أن تنظر إلى المهام التي بين يديك،" يتابع لينكي. "بالنسبة للبعض، ليس الأمر بالغ الأهمية حقًا إذا لم تفهم تمامًا ما يحدث، أو حتى إذا كانت الشبكة خاطئة. نظام يقترح الموسيقى، على سبيل المثال: كل ما يمكن أن يحدث بشكل خاطئ هو أن تستمع إلى مقطوعة موسيقية مملة. ولكن مع تطبيقات مثل خدمة عملاء المؤسسات، حيث تتضمن المعاملات، أو الخدمات السريرية بمساعدة الكمبيوتر تحسين التوثيق، ما نفعله عادةً هو أننا لا نضع الذكاء الاصطناعي في عزلة، ولكننا نجعله يعمل بشكل مشترك مع الإنسان كون."

مساعد افتراضي بمساعدة الإنسان (HAVA) يتم نشره في تطبيق خدمة عملاء المؤسسة.

الصورة: فارق بسيط

يوضح لينكي: "في مجال رعاية العملاء، نسمي ذلك HAVA، أو المساعد الافتراضي بمساعدة الإنسان". "الشيء المثير للاهتمام هنا هو أن لدينا ما يسمى "استرجاع المقطع": لنفترض أن العميل يطرح سؤالاً، إما عن طريق التعرف على الكلام أو الإدخال المكتوب من الدردشة أو واجهة الويب؛ ثم يقوم المساعد الافتراضي بمراجعة الحقائق والبيانات الخاصة به، والتي قد تكون عبارة عن مجموعة من الأدلة والمستندات تقدمها الشركة - وتجد المقاطع ذات الصلة، والتي تقدمها إلى الوكيل البشري، الذي يقوم بالنهائي يتصل. إنه أكثر كفاءة، لأن الذكاء الاصطناعي يقدم المعلومات ذات الصلة له/لها."

"أعتقد أنه يمكنك الرؤية من تجربة مايكروسوفت مع برنامج الدردشة الآلي الخاص بها ويضيف لينكي: "إن وضع الذكاء الاصطناعي في وضع لا يخضع للإشراف قد ينطوي على مخاطر". "لهذا السبب نعتقد أن هذه الطريقة المنسقة، حيث ينظر الإنسان إلى المادة ويكون له القرار النهائي، هي الطريقة الصحيحة للقيام بذلك للتطبيقات المهمة."

الأخلاق والذكاء الاصطناعي

العديد من الأشخاص - بما في ذلك ستيفن هوكينج وإيلون موسك وكبار الباحثين في مجال الذكاء الاصطناعي - فعلوا ذلك أعرب عن مخاوفه حول كيفية تطور الذكاء الاصطناعي، مما يؤدي إلى إنشاء منظمات مثل Open AI وشراكة الذكاء الاصطناعي التي تهدف إلى تجنب المخاطر المحتملة.

هدف افتح الذكاء الاصطناعيتأسست في ديسمبر 2015 ويشارك في رئاستها إيلون ماسك وسام ألتمان، وتهدف إلى "تعزيز الذكاء الرقمي في الطريقة التي من المرجح أن تعود بالنفع على البشرية ككل، دون أن تكون مقيدة بالحاجة إلى توليد الموارد المالية يعود."

الشراكة في مجال الذكاء الاصطناعي - تم الإعلان عنها في سبتمبر 2016 مع الأعضاء المؤسسين أمازون وفيسبوك وجوجل وآي بي إم ومايكروسوفت - وتسعى إلى دعم البحث و التوصية بأفضل الممارسات، وتعزيز الفهم العام والوعي بالذكاء الاصطناعي، وإنشاء منصة مفتوحة للمناقشة و ارتباط.

آخر المستجدات، جامعة كارنيجي ميلون أعلنت عن هدية بقيمة 10 ملايين دولار من شركة محاماة رائدة (كيه اند إل جيتس) لدراسة القضايا الأخلاقية والسياسية المحيطة بالذكاء الاصطناعي وتقنيات الحوسبة الأخرى.

من الأمثلة الجيدة على ضرورة مراقبة أخلاقيات الذكاء الاصطناعي ما ورد في ورقة بحثية حديثة بعنوان الاستدلال الآلي على الإجرام باستخدام صور الوجه من قبل اثنين من الباحثين من جامعة شنغهاي جياو تونغ. في صدى مزعج ل فقدت مصداقيتها لفترة طويلة في محاولة للربط بين علم الفراسة والميل إلى الإجرام، قام شياو لين وو وشي تشانغ ببناء أربعة مصنفات - بما في ذلك التصنيف العصبي التلافيفي الشبكة - تستخدم "صور وجوه 1856 شخصًا حقيقيًا تم التحكم فيها من حيث العرق والجنس والعمر وتعبيرات الوجه، وأُدين نصفهم تقريبًا مجرمون". يدعي المؤلفون أن "جميع المصنفات الأربعة تؤدي أداءً جيدًا باستمرار وتنتج أدلة على صحة الاستدلال الآلي الناتج عن الوجه حول الإجرام، على الرغم من الجدل التاريخي المحيطة بالموضوع"، مضيفين أنهم وجدوا "بعض السمات الهيكلية التمييزية للتنبؤ بالإجرام، مثل انحناء الشفاه، ومسافة الزاوية الداخلية للعين، وما يسمى الأنف والفم زاوية."

هذه الورقة على arXiv خادم ما قبل الطباعة ولم تتم مراجعته من قبل النظراء، ولكن، يتحدث إلى بي بي سيأشارت سوزان ماكفي، أستاذة علم الإجرام الكمي بجامعة إدنبره، إلى أن "ما قد يلتقطه هذا البحث هذه هي الصور النمطية التي تؤدي إلى القبض على الأشخاص من قبل نظام العدالة الجنائية، بدلاً من احتمالية القبض على شخص ما مخالفة... لا يوجد سبب نظري يجعل الطريقة التي يبدو بها شخص ما تجعله مجرمًا."

إن أي إحياء لفكرة أن الإجرام يمكن استنتاجه من صور الوجه بواسطة الذكاء الاصطناعي لن يكون مفيدا بشكل خاص، نظرا للمناخ السياسي الحالي على ضفتي الأطلسي.

تنفيذ الذكاء الاصطناعي في المؤسسة

من الواضح أن الذكاء الاصطناعي هو مجال متطور، لكن هذا لم يمنع المؤسسات من المضي قدمًا وتنفيذه - حتى لو لم يكونوا في كثير من الأحيان على علم تام بأنهم فعلوا ذلك. في يوليو من هذا العام، قدمت شركة Narrated Science، التي تعمل على تطوير أنظمة متقدمة لتوليد اللغات الطبيعية (NLG)، العرض نتائج استطلاع شمل 235 من مديري الأعمال الذين غطوا نشر التطبيقات التي تعمل بالذكاء الاصطناعي داخل شركاتهم المنظمات. النتائج الرئيسية من توقعات الذكاء الاصطناعي في المؤسسة 2016 كان:

أصبح اعتماد الذكاء الاصطناعي وشيكًا، على الرغم من ارتباك السوق: على الرغم من أن 38 بالمائة فقط من مجموعة الاستطلاع أكدوا أنهم يستخدمون الذكاء الاصطناعي، فإن 88 بالمائة من الباقين استخدموه بالفعل تقنيات الذكاء الاصطناعي مثل التحليلات التنبؤية والتقارير والاتصالات المكتوبة الآلية والصوت الاعتراف/الاستجابة.

التحليلات التنبؤية تهيمن على المؤسسة: استخدم 58 في المائة من المشاركين استخراج البيانات والإحصاءات والنمذجة والتعلم الآلي لتحليل البيانات الحالية ووضع التنبؤات؛ وفي المرتبة الثانية، بنسبة 25% تقريبًا، جاءت التقارير المكتوبة الآلية و/أو الاتصالات والتعرف على الصوت/الاستجابة.

لا يزال النقص في المواهب في مجال علوم البيانات يؤثر على المؤسسات: ذكر 59 بالمائة من المشاركين أن "نقص المواهب في علوم البيانات" هو العائق الأساسي أمام تحقيق القيمة من تقنيات البيانات الضخمة الخاصة بهم. جميع المشاركين تقريبًا (95٪) الذين أشاروا إلى أنهم ماهرون في استخدام البيانات الضخمة لحل مشكلات الأعمال أو توليد رؤى استخدموا أيضًا تقنيات الذكاء الاصطناعي.

الشركات التي تولد أكبر قيمة من استثماراتها في التكنولوجيا تجعل الابتكار أولوية: 61 بالمائة من المشاركين الذين لديهم استراتيجية ابتكار استخدموا الذكاء الاصطناعي لتحديد الفرص في البيانات التي كان من الممكن تفويتها، مقارنة بـ 22 بالمائة فقط من المشاركين الذين ليس لديهم مثل هذه الاستراتيجية.

من المؤكد أن هناك عددًا أكبر من الشركات المشاركة في الذكاء الاصطناعي أكثر من أي وقت مضى، كما أن هناك أيضًا "مجموعة تكنولوجية" ناشئة، كما هو موضح في الرسم البياني الأخير للمشهد من بلومبرج بيتا يوضح:

الصورة: بلومبرج بيتا

في تحليل، لاحظ شيفون زيليس وجيمس شام من بلومبرج بيتا أن الإصدار 3.0 يحتوي على شركات أكثر بمقدار الثلث مقارنة بالنسخة الأولى قبل عامين، وأنه "يبدو من غير المجدي أن نحاول أن نكون شاملين، لأن هذا لا يؤدي إلا إلى خدش سطح كل الأنشطة الموجودة هناك." هذا ليكون من المتوقع في مجال التكنولوجيا الذي يتسارع إلى ذروة دورة الضجيج، وسيكون هناك الكثير من الشركات الناشئة وأنشطة الاندماج والاستحواذ في السوق ينضج. ولكن ما هي الشركات الناشئة في مجال الذكاء الاصطناعي التي ستزدهر؟ وفقًا لمؤلفي بلومبرج بيتا، "الشركات التي نراها تدخل بنجاح مسارًا طويل المدى يمكنها حزم استثماراتها التكنولوجيا كتطبيق جديد خاص بمشكلة محددة للمؤسسات أو ببساطة تحويل الصناعة نفسها إلى صناعة جديدة الوافد."

الآفاق

كيف من المحتمل أن يتقدم الذكاء الاصطناعي على المدى القريب؟

يقول نيلز لينكي من Nuance: "سيكون هناك المزيد من المتغيرات للشبكات العصبية، وسيولي الناس المزيد من الاهتمام لما يحدث فعليًا أثناء المعالجة". "ستحتاج إلى تصور ما يحدث في الطبقات وكيفية تفاعلها مع البيانات، وجعلها أكثر شفافية في أي جزء من أدت الأدلة إلى اتخاذ القرار، بحيث لا تنتج الشبكة نتيجة فحسب، بل تشير أيضًا إلى الأدلة والمنطق عملية."

يؤكد لينكي أيضًا على أن الذكاء الاصطناعي لا يعني دائمًا الشبكات العصبية: "نحن أيضًا نصنع الذكاء الاصطناعي استنادًا إلى تمثيل المعرفة والأنظمة القائمة على القواعد، و بالنسبة لبعض الأمور المهمة، قد يكون من الأفضل استخدام الأنظمة المستندة إلى القواعد حيث يمكنك التحكم الكامل في القواعد الموجودة والقواعد غير الموجودة هناك. يمكنك الحصول على ذلك في صندوق الأدوات الخاص بك للأشياء التي يكون لها معنى، حيث يمكن بسهولة تدوين القواعد بواسطة الإنسان."

أصبح الذكاء الاصطناعي سهل التنفيذ نسبيًا، مع توفر البيانات والخوارزميات وموارد الحوسبة بشكل متزايد. ولكن هناك دائمًا العامل البشري الذي يجب أخذه في الاعتبار: يمكن للبشر طرح الأسئلة الخاطئة، واستخدام بيانات التدريب المعيبة، وقبول مخرجات الخوارزميات دون الاستفسار عن مصدرها.

هل يجب أن نخشى الذكاء الاصطناعي الفائق؟ ربما في الوقت المناسب. ولكن الأمر الأكثر إلحاحا هو أننا يجب أن ننتبه إلى ما قد يفعله الناس بتكنولوجيا الذكاء الاصطناعي اليوم. أو كما قال زيليس وشام من بلومبرج بيتا: "في السنوات القليلة المقبلة، الخطر هنا ليس ما نراه في أفلام الخيال العلمي البائسة. إن الخطر الحقيقي للذكاء الآلي هو أن المديرين التنفيذيين سوف يتخذون قرارات سيئة بشأن قدرات الذكاء الآلي التي يجب بناءها.