تحقق من جميع الجلسات عند الطلب من قمة الأمن الذكي هنا.
نظرًا لأن استخدام الذكاء الاصطناعي أصبح أكثر انتشارًا في كل مكان عبر الصناعات ، وأصبح منتشرًا على نطاق واسع مثل الكهرباء ومياه الشرب النظيفة ، فقد بدأ الحديث حول التكنولوجيا الجديدة في الانتقال من كيف لتطبيق الذكاء الاصطناعي في كيفية تنفيذه بطريقة مسؤولة. كيف يختلف الذكاء الاصطناعي عن تقنيات البرامج الأخرى التي استخدمناها لبناء المنتجات ، وهل هناك حاجة إلى لوائح جديدة وأطر امتثال جديدة؟
لم تحفز هذه المحادثة معظم المؤسسات على اتخاذ إجراء. في استطلاع حديث أجراه ويكفيلد للأبحاث وجونيبر نتوركس ، 63٪ من الشركات قالت إنها على الأقل في معظم الطريق نحو أهداف تبني الذكاء الاصطناعي المخطط لها – لكن 9٪ فقط لديها سياسات حوكمة ناضجة تمامًا.
يجب أن تبدأ أي منظمة تستخدم تقنية الذكاء الاصطناعي أو تطورها في التركيز بشكل أكبر على ممارسات حوكمة الذكاء الاصطناعي الخاصة بها. وإلا ، فإنهم يخاطرون بأن يفاجأوا بتشريعات الذكاء الاصطناعي التي يجري تطويرها الآن مع تعريض أعمالهم وعملائهم للخطر بسبب الذكاء الاصطناعي المطور بشكل غير صحيح.
ضرورة الحكم
تجلب كل تقنية جديدة أسئلة جديدة حول الاستخدام السليم والحوكمة ، والذكاء الاصطناعي ليس استثناءً. ومع ذلك ، نظرًا لأن حلول الذكاء الاصطناعي مصممة لتنفيذ المهام على قدم المساواة مع خبراء المجال البشري ، فإن الإدارة السليمة للمهام التي تتطلب عادةً التفكير الإدراكي البشري يمكن أن تكون صعبة بشكل خاص.
على سبيل المثال ، يمكن الوثوق بالذكاء الاصطناعي في السيارات ذاتية القيادة لاتخاذ قرارات في أجزاء من الثانية ، دون تدخل بشري ، والتي لها آثار هائلة على حياة الأشخاص داخل السيارة وخارجها. إن تحديد كيفية استخدام الذكاء الاصطناعي وكيفية عدم استخدامه ، والضمانات التي يمكن أن تحمي المستخدمين والمارة والشركة المصنعة هي أسئلة مهمة تختلف اختلافًا جوهريًا عن أنواع الحوكمة السابقة.
بدأ قادة الأعمال والعملاء والمنظمون أيضًا في طرح أسئلة حول استخدام المؤسسات للذكاء الاصطناعي والبيانات ، من كيفية تطويره إلى كيفية إدارته. إذا كان الذكاء الاصطناعي يتخذ قرارات بناءً على البيانات ، فكيف لي أن أعرف ما إذا كان النموذج قد تم تدريبه بالبيانات التي يحق للمدرب استخدامها؟ كيف يمكنني معرفة الغرض من استخدام هذه البيانات؟
بدأ قادة الحكومة بالفعل في توجيه أعينهم نحو التنظيم. سيكون لقانون الذكاء الاصطناعي المقترح في الاتحاد الأوروبي آثار واسعة النطاق على كيفية استخدام الشركات للذكاء الاصطناعي وكيفية استخدامها. حتى الولايات المتحدة بدأت في إصدار إرشادات حول استخدام الذكاء الاصطناعي. في أوائل تشرين الأول (أكتوبر) ، أصدر مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا تقريره الذي طال انتظاره “مخطط لشرعة حقوق الذكاء الاصطناعي. ” هذه إرشادات للشركات لاستخدامها في تطوير أنظمة الذكاء الاصطناعي ونشرها. على الرغم من عدم وجود تفويضات حقيقية بعد ، إلا أن الشركات بحاجة إلى الاستعداد لتغيير ذلك.
تحتاج المؤسسات بجميع أنواعها إلى إعطاء الأولوية للحوكمة بنفس معدل التبني لحماية أعمالها وتقنياتها وعملائها.
استراتيجيات حوكمة الذكاء الاصطناعي
تحتاج الشركات إلى تطوير هيكل حوكمة مصمم للتخفيف من المخاطر الحالية والمستقبلية حيث تبدأ الحكومات المحلية وحكومات الولايات والحكومات الفيدرالية في صياغة تشريعات حوكمة الذكاء الاصطناعي.
تشمل الخطوات التي يمكن للمؤسسات اتخاذها اليوم ما يلي:
- وضح كيف ومتى سيتم استخدام الذكاء الاصطناعي داخل المنظمة ، للاستخدامات الحالية والمستقبلية المخطط لها. لا يزال الذكاء الاصطناعي مصطلحًا غامضًا تستخدمه العديد من المؤسسات لوصف التكنولوجيا المختلفة تمامًا. في الأساس ، يمكن فهم أي تقنية تكمل مهمة كانت تتطلب سابقًا الإدراك البشري أو التفكير المنطقي على نطاق واسع على أنها الذكاء الاصطناعي. تحتاج المنظمات إلى فهم واضح لمكان وكيفية استخدام مؤسستها للذكاء الاصطناعي ، بغض النظر عما إذا كان هذا الذكاء الاصطناعي قد تم شراؤه أو تطويره داخليًا.
- تطوير معايير وأخلاقيات متسقة عبر المؤسسة تشمل ضمانات حول الاستخدامات الأخلاقية للذكاء الاصطناعي. كل منظمة رئيسية في العالم لديها بالفعل معايير وممارسات وضمانات حول التكنولوجيا التي تستخدمها. الذكاء الاصطناعي هو تقنية جديدة ، وعلى الرغم من أنه يشبه تقنيات البرامج الأخرى ، إلا أنه يحتوي على بعض الاختلافات. نظرًا لأن حلول الذكاء الاصطناعي تميل إلى القيام بالمهام على قدم المساواة مع خبراء المجال البشري ، فإن جميع القواعد والأخلاق والالتزامات نفسها التي تنطبق على السلوك البشري السيئ تميل إلى تطبيق الذكاء الاصطناعي. يميل سلوك حل الذكاء الاصطناعي إلى التغيير بمرور الوقت حيث يتم إعادة تدريب النماذج أو تتغير البيئة المحيطة بها. بعد أن تقوم المنظمات بتدقيق استخدامها للذكاء الاصطناعي ، يجب عليها أيضًا تدقيق معاييرها وبياناتها الأخلاقية ، العامة منها وتلك المستخدمة في تدريب الموظفين ، والتأكد من أنها شاملة بما يكفي لتشمل جميع استخدامات المنظمة للذكاء الاصطناعي أيضًا.
- تأكد من أن جميع سياسات الحوكمة متعددة الوظائف وتغطي النظام البيئي للذكاء الاصطناعي بأكمله ، بما في ذلك السياسات الخارجية. بعد أن يكون لديك فهم واضح لكيفية استخدام الذكاء الاصطناعي في مؤسستك وما هي معاييرك للاستخدامات الأخلاقية للذكاء الاصطناعي ، من المهم التأكد من أن أي ذكاء اصطناعي خارجي قيد الاستخدام يندرج تحت نفس المعايير. إذا قمت بتطوير أفضل الممارسات ، ولكنك اشتريت حلولاً تدعم الذكاء الاصطناعي من بائع لا يتبع نفس قواعد الحوكمة ، فإنك بذلك تترك عملك وعملائك عرضة للخطر.
- ابتكر مع وضع الحوكمة في الاعتبار. لا تستحق أفضل حلول الذكاء الاصطناعي الإنشاء إذا لم يكن من الممكن دمجها بشكل مسؤول في سياسات الحوكمة الحالية. بمجرد تكريس سياسات حوكمة الذكاء الاصطناعي ووضعها بوضوح ، فإن ضمان تدريب الفرق عليها وأن التوافق مع الأهداف يظل أولوية قصوى أمرًا بالغ الأهمية لتحقيق النجاح على المدى الطويل.
استنتاج
الذكاء الاصطناعي لم يعد المستقبل فقط. إنه إلى حد كبير الواقع الحالي للعديد من المنظمات. ومع ذلك ، لا تزال حوكمة الذكاء الاصطناعي متخلفة عن تبني الذكاء الاصطناعي ، لكنها جزء أساسي من تجنب الحفر في طريق نجاح الذكاء الاصطناعي. ستلعب فرق تكنولوجيا المعلومات التي تظل في الطليعة دورًا مهمًا في وضع الإستراتيجية المستقبلية داخل مؤسساتهم وصناعاتهم من خلال القيادة في وضع معايير للذكاء الاصطناعي.
بوب فرايدي هو كبير مسؤولي منظمة العفو الدولية في جونيبر نتوركس.
صانعي القرار
مرحبًا بك في مجتمع VentureBeat!
DataDecisionMakers هو المكان الذي يمكن للخبراء ، بما في ذلك الأشخاص الفنيون الذين يقومون بعمل البيانات ، مشاركة الأفكار والابتكارات المتعلقة بالبيانات.
إذا كنت تريد أن تقرأ عن الأفكار المتطورة والمعلومات المحدثة ، وأفضل الممارسات ، ومستقبل البيانات وتكنولوجيا البيانات ، انضم إلينا في DataDecisionMakers.
يمكنك حتى التفكير في المساهمة بمقال خاص بك!
قراءة المزيد من DataDecisionMakers