أخلاقيات الذكاء الاصطناعي واتجاه شركتنا - DeepBrainAI

Updated on
July 5, 2024
|
Insight
Published
August 24, 2022

 

نحن نعيش الآن في عصر الذكاء الاصطناعي (AI). لقد أصبح منتشرًا في حياتنا اليومية، وعاجلاً أم آجلاً، قد يكون واقعنا المشترك حيث يصعب التمييز بين الذكاء البشري والذكاء الاصطناعي.

تقوم شركة DeepBrain AI بتطوير الذكاء الاصطناعي للبشر، ونحن نتصور عالماً يمتلك فيه كل شخص صورة شخصية خاصة به للذكاء الاصطناعي كامتداد لشخصيته الرقمية. يتوافق برنامج AI Humans الخاص بنا مع metaverse، لكنهم أكثر بكثير من مجرد شخصية ثلاثية الأبعاد. تبدو نماذجنا المتطورة حقيقية وتبدو حقيقية وتعبر عن نفسها كأشخاص حقيقيين.

لم تعد عبارة «الإنسان الافتراضي» خيالًا علميًا. تستخدم الشركات في جميع أنحاء آسيا بالفعل تقنية DeepBrain AI للتواصل مع عملائها في المكتب والمنزل. على سبيل المثال، يمكن الوصول بسهولة إلى الصراف المصرفي بالذكاء الاصطناعي داخل كشك في البنك أو على هاتف محمول في المنزل.

بقدر ما أصبحت لقاءات الذكاء الاصطناعي روتينًا يوميًا، فإن المناقشات حول المبادئ الأخلاقية للذكاء الاصطناعي جارية بنشاط داخل المجتمعات التقنية والجامعات والحكومات في جميع أنحاء العالم. تشير أخلاقيات الذكاء الاصطناعي إلى مبادئ تطوير واستخدام الذكاء الاصطناعي التي تسمح باستخدامه بشكل عادل وآمن والتعايش لصالح جميع البشر.

في ديسمبر 2020، أعدت وزارة العلوم وتكنولوجيا المعلومات والاتصالات والتخطيط المستقبلي في جمهورية كوريا «معايير أخلاقيات الذكاء الاصطناعي»«لاقتراح الاتجاه المطلوب لتطوير واستخدام الذكاء الاصطناعي في هذا العصر الجديد للذكاء الاصطناعي. تم إعداد مشروع المعيار الأخلاقي الذي يهدف إلى الذكاء الاصطناعي للبشرية من خلال جمع الآراء من مختلف الخبراء في الأوساط الأكاديمية والشركات والمجموعات المدنية.

المبادئ الأساسية الثلاثة هي:

في عملية تطوير واستخدام الذكاء الاصطناعي لتحقيق الإنسانية،

  1. مبدأ الكرامة الإنسانية
  2. مبدأ الشفافية في المجتمع
  3. يجب الالتزام بمبدأ الغرض من التكنولوجيا.

المتطلبات الرئيسية العشرة هي:

في كامل عملية تطوير واستخدام الذكاء الاصطناعي لممارسة وتنفيذ المبادئ الأساسية الثلاثة،

  1. ضمان حقوق الإنسان
  2. حماية الخصوصية
  3. احترام التنوع
  4. لا يوجد انتهاك
  5. الإنفتاح
  6. تضامن
  7. إدارة البيانات
  8. المساءلة
  9. الأمان
  10. يجب تلبية متطلبات الشفافية.

 

بالإضافة إلى ذلك، أوصت اللجنة الوطنية لحقوق الإنسان في كوريا مؤخرًا بمبادئ توجيهية لحماية حقوق الإنسان المتعلقة بتطوير تكنولوجيا الذكاء الاصطناعي (AI) وسن وتعديل القوانين واللوائح. هذه هي المرة الأولى التي تقدم فيها اللجنة الوطنية لحقوق الإنسان في كوريا توصيات تتعلق بالذكاء الاصطناعي.

قالت اللجنة الوطنية لحقوق الإنسان في كوريا: «من المتوقع أن يؤدي تطوير وانتشار الذكاء الاصطناعي إلى تحسين نوعية حياة الأفراد، ولكن القضايا التي تنتهك حقوق الإنسان مثل انتهاك المعلومات الشخصية والخصوصية والتمييز تتزايد». يوصى بإعداد معايير حماية حقوق الإنسان لتطوير الذكاء الاصطناعي واستخدامه».

وبهذه الطريقة، تكشف الحكومة الكورية عن القواعد الحديدية لأخلاقيات الذكاء الاصطناعي، وتقوم الشركات أيضًا بوضع أخلاقيات الذكاء الاصطناعي والكشف عنها. على الرغم من أنه مستوى توجيهي ليس إلزاميًا، فقد تنشأ شكوك حول ما إذا كان سيكون فعالًا. إذا أجبنا على ذلك، فإننا نعتقد أنه سينجح لأن القضايا الأخلاقية تؤثر بشكل مباشر على أنشطة الأعمال. هذا لأن معايير المستهلكين في السوق مرتفعة.

 

إذن، كيف ينبغي إنشاء أخلاقيات الذكاء الاصطناعي في المستقبل؟

نظرًا لأن المبدأ التوجيهي المجرد وحده ليس فعالًا، فمن الضروري النظر إلى أخلاقيات تطوير الذكاء الاصطناعي من خلال تقسيمها إلى عدة مجالات. على سبيل المثال، يمكن تقسيمها إلى روبوتات المحادثة، والميتاهومان، والتزييف العميق، والقيادة الذاتية. ماذا عن التركيز على الأخلاق نفسها بدلاً من أخلاقيات الذكاء الاصطناعي من منظور أوسع؟ تعمل DeepBrain AI أيضًا على ثقافة رقمية تخلقها التكنولوجيا والأشخاص معًا.

Most Read

Most Read

دعونا نبقى على اتصال

فريقنا جاهز لدعمك في رحلتك البشرية الافتراضية. انقر أدناه للتواصل وسيتواصل معك شخص ما قريبًا.