بری اسکنل در اولین بخش از قو،ن ما برای آینده دیجیتال از سری تحول دیجیتال، قو،ن جدید مربوط به فناوریهای هوش مصنوعی را تجزیه و تحلیل میکند و آنچه را که ،بوکارها باید در ماهها و سالهای آینده در نظر بگیرند، تشریح میکند.
قانون هوش مصنوعی (“قانون AI”)
قانون هوش مصنوعی یک مقررات اتحادیه اروپا است که یک چارچوب نظارتی برای هوش مصنوعی معرفی می کند.هوش مصنوعی). قانون هوش مصنوعی توسعه و استفاده از سیستمهای هوش مصنوعی «پرخطر» را با ایجاد قو،ن و تعهداتی برای توسعهدهندگان، توسعهدهندگان و کاربران فناوریهای هوش مصنوعی تنظیم میکند و سایر سیستمهای هوش مصنوعی را که برای انسان مضر هستند ممنوع میکند. ،ن زده میشود که این قانون بر 35 درصد از سیستمهای هوش مصنوعی مورد استفاده در اروپا تأثیر بگذارد که شامل سیستمهای بانکی، مراقبتهای بهداشتی، ایمنی ،اببازی، نظارت بر منابع انس،، ایمنی هوانوردی و دستکاری احساسات میشود. تعهدات مربوط به مشاغل بر اساس دسته ریسک ایجاد شده توسط هوش مصنوعی توسعه یافته تعیین می شود – از این قبیل که “ریسک غیر قابل قبول“،”ریسک بالا“، یا “حداقل ریسک“.
این قانون برای طیف گسترده ای از کاربران و ارائه دهندگان سیستم های هوش مصنوعی اعمال می شود. در آن، تعریف هوش مصنوعی به طور هدفمند گسترده است و هوش مصنوعی را از فناوری اطلاعات ک،یک متمایز می کند، و بحث های مداومی در پارلمان اتحادیه اروپا در مورد اینکه آیا باید تعریفی برای سیستم های هوش مصنوعی عمومی منظور شود یا نه، وجود دارد. این به طور هدفمند پیش نویس شده است تا آنجا که ممکن است از نظر فناوری خنثی و ضد آینده باشد. احتمالاً به اندازه GDPR تأثیری بر ارائه دهندگان خواهد داشت. اجرای عدم انطباق تا 30 میلیون یورو یا 6 درصد گردش مالی جه، ارائه دهنده/کاربران برای نقض رویه های ممنوع است.
انتظار می رود قانون هوش مصنوعی در اوا، سال 2023 یا اوایل سال 2024 لازم الاجرا شود (یک دوره انتقالی اضافی هجده ماهه وجود خواهد داشت). پیشبینی نمیشود که قانون هوش مصنوعی پیش از نیمه دوم سال 2024 برای اپراتورها قابل اجرا باشد. قانون هوش مصنوعی بخشی از رویکرد اروپایی به هوش مصنوعی است که بر تعالی و اعتماد به هوش مصنوعی متمرکز است. هدف آن افزایش پژوهش، ظرفیت و حفظ حقوق اساسی است.
تاثیر بر ،ب و کارها
مشتریان ویلیام فرای، به،وان رهبران بازار و مبتکران در فناوریهای پیشرفته، ابتدا باید ارزیابی کنند که آیا سیستمهایی که ارائه/استفاده میکنند مطابق با تعریف قانون پیشنهادی از هوش مصنوعی است یا خیر. آنها سپس باید ارزیابیهای ریسک را انجام دهند تا مطمئن شوند که آیا سیستمهای هوش مصنوعی ممنوع یا سیستمهای پرخطر هستند یا خیر. اگر تصمیم گرفته شود که آنها سیستمهای هوش مصنوعی پرخطر را ارائه/استفاده میکنند، مشتریان باید یک رژیم نظارتی ایجاد کنند که شامل موارد زیر باشد:
- ارزیابی ریسک رسمی و منظم؛
- ارزیابی تاثیر پردازش داده ها؛ و
- ا،امات سنگین نگهداری سوابق
خود سیستم های هوش مصنوعی باید از نظر طراحی شفاف و قابل توضیح باشند. برای استقرار/استفاده از این سیستمها، شرایط استفاده از این سیستمها مهم است، که قانون بهطور خاص آنها را به،وان یک جزء مهم در تنظیم سیستمهای هوش مصنوعی پرخطر شناسایی میکند. به این ترتیب، قراردادها، کتابچههای راهنمای کاربر، قراردادهای مجوز کاربر نهایی، قراردادهای خدمات اصلی و غیره همگی باید در پرتو قانون جدید مورد بازنگری قرار گیرند.
دستورالعمل مسئولیت AI
در 28 سپتامبر 2022، کمیسیون پیشنهاد خود را برای دستورالعمل مسئولیت هوش مصنوعی منتشر کرد.AIDS). هدف از AILD تعیین قو،ن ی،ان برای بخش های خاصی از مسئولیت مدنی غیر قراردادی برای خسارات ناشی از سیستم های هوش مصنوعی است.
قو،ن مسئولیت فعلی ماهیت پیچیده هوش مصنوعی و مشکلات ذاتی مرتبط با تلاش برای شناسایی مسئولیت را برآورده نمی کند.
شایان ذکر است، این پیشنهاد حاوی یک ماده قابل ابطال است که در صورت بروز خطا با توجه به آسیب های ناشی از سیستم های هوش مصنوعی، ارتباط علت و معلولی را فرض می کند. هدف از این ماده این است که برای مصرف کنندگان آسیب دیده راهی آسان تر و موثر برای مطالبه غرامت فراهم کند.
علاوه بر این، بر اساس ماده 3 (1) AILD پیشنهادی، دادگاه این اختیار را دارد که در صورت ادعای ایجاد خسارت، دستور افشای شواهد مربوطه را از ارائهدهنده یک سیستم هوش مصنوعی در مورد سیستمهای پرخطر صادر کند.
تاثیر بر ،ب و کارها
این امر به طور قابل ملاحظه ای ریسک مسئولیت مشتریان ویلیام فرای را که سیستم های هوش مصنوعی را در محصولات و/یا خدمات خود ادغام می کنند، افزایش می دهد. اگر ادعا می شود که آسیب توسط سیستمی ایجاد شده باشد که هوش مصنوعی را در خود جای داده است، قرب، آسیب نیازی به اثبات اینکه آسیب توسط سیستم هوش مصنوعی ایجاد شده است، نیست، بلکه توسعه دهنده/مالک سیستم هوش مصنوعی باید ثابت کند که سیستم هوش مصنوعی خسارت وارد نکرد یک فرض رد شدنی وجود دارد که سیستم هوش مصنوعی باعث آسیب شده است. این بدان م،است که مشتری، که محصولات یا خدماتی را که دارای سیستمهای هوش مصنوعی هستند ارائه میکنند، باید در قراردادهای خود، بهویژه در رابطه با ضمانتها، غرامتها، و سقفها و مستثنی شدن از مسئولیت، تجدید نظر کنند. همچنین ممکن است لازم باشد بیمهگران نحوه بیمه، ،بوکارهایی که سیستمهای هوش مصنوعی را در خود دارند، مجدداً ارزیابی کنند.
دستورالعمل مسئولیت محصول
در 28 سپتامبر 2022، کمیسیون یک دستورالعمل جدید مسئولیت محصول را پیشنهاد کرد.PLD). هدف PLD نوسازی قو،ن و ارائه یک سیستم جبران خسارت موثر در سطح اتحادیه اروپا برای ،، است که در نتیجه محصولات معیوب دچار آسیب فیزیکی یا آسیب به اموال می شوند. هدف PLD ارائه حمایت از افراد حقیقی صرف نظر از اینکه محصول معیوب در داخل یا خارج از اتحادیه اروپا تولید شده است، با اطمینان از وجود یک تجارت مستقر در اتحادیه اروپا که میتوان آن را مسئول دانست.
PLD تغییرات در نحوه تولید، توزیع و عملکرد محصولات را از زمان معرفی اولین PLD اتحادیه اروپا در سال 1985 (دستورالعمل 85/374/EEC) در نظر می گیرد. PLD مفهوم “محصول” را به “فایل ها و نرم افزارهای تولید دیجیتال” گسترش می دهد.
PLD اکنون همه محصولات دیجیتال را پوشش می دهد و قو،ن برای استفاده از فناوری های جدید و نوظهور اصلاح شده اند. PLD نقاط ضعف سایبری و به روز رس، نرم افزارها و سیستم های هوش مصنوعی را پوشش می دهد.
PLD همچنین محصولاتی را در اقتصاد دایره ای پوشش می دهد (مثلاً محصولات استفاده مجدد، بازسازی شده یا بازسازی شده).
تاثیر بر ،ب و کارها
مشابه دستورالعمل مسئولیت هوش مصنوعی، این بخش از قانون بر مشتریان ویلیام فرای به ویژه در رابطه با نحوه قرارداد با سایر طرفها تأثیر میگذارد. مسائل مربوط به امنیت سایبری و عدم ارائه بهروزرس،های نرمافزاری لازم، از نظر موارد مربوط به مسئولیت محصول، «نقص» محسوب میشوند. این باید در بندهای غرامت مشتریان، بندهای مسئولیت، پوشش بیمه، ضمانتها و بندهای محرومیت منع، شود. مشتریان باید مدیریت ریسک خود را در پرتو این قانون جدید ارزیابی کنند.
محتوای این مقاله به منظور ارائه راهنمای کلی در مورد موضوع است. باید در مورد شرایط خاص خود از یک متخصص مشاوره بگیرید.
منبع: http://www.mondaq.com/Article/1253632