تریبون کسب و کار های امروز ، فناوری های فردا
چهارشنبه - ۲۹ خرداد ۱۳۹۸
    English  | فارسی

 

         

قانون گذاری اتحادیه اروپا برای استفاده اخلاقی از هوش مصنوعی

قانون گذاری اتحادیه اروپا برای استفاده اخلاقی از هوش مصنوعی
اتحادیه اروپا که نگران استفاده لجام گسیخته از توانمندی‌های هوش مصنوعی است، قصد دارد برای اخلاقی کردن نحوه کاربرد آن قوانینی وضع کند.

به گزارش فابانیوز به نقل از وردیکت، امروزه هوش مصنوعی در حال نفوذ به تمامی جنبه‌های زندگی انسان است و کاربردهای این پدیده نوظهور در حوزه‌هایی مانند مراقبت‌های درمانی، مدیریت مصرف انرژی، حفظ ایمنی خودروها، کشاورزی، مقابله با تغییرات آب و هوایی، مدیریت خطرات مالی و غیره روز به روز افزایش می‌یابد.

اما هنوز حوزه‌های چالش برانگیزی وجود دارد که این فناوری به آنها به طور کامل نفوذ نکرده و وقوع این پدیده در آینده می‌تواند زندگی انسان را تحت تأثیر جدی قرار دهد. از سوی دیگر جنبه‌های حقوقی، قانونی و قضائی این مساله نیز باید مورد توجه قرار بگیرد.

علت این مساله آن است که دستگاه‌های مبتنی بر هوش مصنوعی در آینده قادر به تصمیم گیری خواهند بود و لذا باید مشخص شود که آیا باید در صورت خطا با آنها مثل یک انسان مستقل برخورد کرد یا مالک آنها مسئول خواهد بود.

با توجه به همین موضوعات، اتحادیه اروپا نسخه اولیه یک دستورالعمل اخلاقی در مورد استفاده از هوش مصنوعی را آماده کرده تا از آن به عنوان نقشه راهی برای سازمان‌هایی استفاده شود که قصد دارند از فناوری مذکور بهره بگیرند.

اتحادیه اروپا از سال ۲۰۱۸ برنامه ریزی در این زمینه را آغاز کرد و گروهی از متخصصان را مأمور نوشتن این دستورالعمل کرد. بر اساس استراتژی هوش مصنوعی اتحادیه اروپا، قرار است سرمایه گذاری در این زمینه تا یک دهه آینده در قاره مذکور به طور سالانه به ۲۰ میلیارد یورو برسد.

قوانین یادشده موضوعات مختلفی مانند اطمینان به هوش مصنوعی، نهادهای انسانی و نظارت بر هوش مصنوعی، استحکام و ایمنی هوش مصنوعی، حریم شخصی و نظارت بر داده‌ها، شفافیت، تنوع، عدم تبعیض و رعایت عدالت و رفاه اجتماعی و زیست محیطی را در بر می‌گیرند. قرار است خط مشی یادشده تا تابستان سال ۲۰۱۹ تکمیل و منتشر شود.

 

 

منبع: مهر

0 دیدگاه:

captcha
انصراف از پاسخ دادن

طراحی و پشتیبانی : گروه دوران      
 
نقل مطالب با ذکر منبع بلا مانع است.
Copyright © 2011 fabanews, All rights reserved