قانون هوش مصنوعی – فناوری جدید


بری اسکنل در اولین بخش از قو،ن ما برای آینده دیجیتال از سری تحول دیجیتال، قو،ن جدید مربوط به فناوری‌های هوش مصنوعی را تجزیه و تحلیل می‌کند و آنچه را که ،ب‌وکارها باید در ماه‌ها و سال‌های آینده در نظر بگیرند، تشریح می‌کند.

قانون هوش مصنوعی (“قانون AI”)

قانون هوش مصنوعی یک مقررات اتحادیه اروپا است که یک چارچوب نظارتی برای هوش مصنوعی معرفی می کند.هوش مصنوعی). قانون هوش مصنوعی توسعه و استفاده از سیستم‌های هوش مصنوعی «پرخطر» را با ایجاد قو،ن و تعهداتی برای توسعه‌دهندگان، توسعه‌دهندگان و کاربران فناوری‌های هوش مصنوعی تنظیم می‌کند و سایر سیستم‌های هوش مصنوعی را که برای انسان مضر هستند ممنوع می‌کند. ،ن زده می‌شود که این قانون بر 35 درصد از سیستم‌های هوش مصنوعی مورد استفاده در اروپا تأثیر بگذارد که شامل سیستم‌های بانکی، مراقبت‌های بهداشتی، ایمنی ،اب‌بازی، نظارت بر منابع انس،، ایمنی هوانوردی و دستکاری احساسات می‌شود. تعهدات مربوط به مشاغل بر اساس دسته ریسک ایجاد شده توسط هوش مصنوعی توسعه یافته تعیین می شود – از این قبیل که “ریسک غیر قابل قبول“،”ریسک بالا“، یا “حداقل ریسک“.

این قانون برای طیف گسترده ای از کاربران و ارائه دهندگان سیستم های هوش مصنوعی اعمال می شود. در آن، تعریف هوش مصنوعی به طور هدفمند گسترده است و هوش مصنوعی را از فناوری اطلاعات ک،یک متمایز می کند، و بحث های مداومی در پارلمان اتحادیه اروپا در مورد اینکه آیا باید تعریفی برای سیستم های هوش مصنوعی عمومی منظور شود یا نه، وجود دارد. این به طور هدفمند پیش نویس شده است تا آنجا که ممکن است از نظر فناوری خنثی و ضد آینده باشد. احتمالاً به اندازه GDPR تأثیری بر ارائه دهندگان خواهد داشت. اجرای عدم انطباق تا 30 میلیون یورو یا 6 درصد گردش مالی جه، ارائه دهنده/کاربران برای نقض رویه های ممنوع است.

انتظار می رود قانون هوش مصنوعی در اوا، سال 2023 یا اوایل سال 2024 لازم الاجرا شود (یک دوره انتقالی اضافی هجده ماهه وجود خواهد داشت). پیش‌بینی نمی‌شود که قانون هوش مصنوعی پیش از نیمه دوم سال 2024 برای اپراتورها قابل اجرا باشد. قانون هوش مصنوعی بخشی از رویکرد اروپایی به هوش مصنوعی است که بر تعالی و اعتماد به هوش مصنوعی متمرکز است. هدف آن افزایش پژوهش، ظرفیت و حفظ حقوق اساسی است.

تاثیر بر ،ب و کارها

مشتریان ویلیام فرای، به‌،وان رهبران بازار و مبتکران در فناوری‌های پیشرفته، ابتدا باید ارزیابی کنند که آیا سیستم‌هایی که ارائه/استفاده می‌کنند مطابق با تعریف قانون پیشنهادی از هوش مصنوعی است یا خیر. آن‌ها سپس باید ارزیابی‌های ریسک را انجام دهند تا مطمئن شوند که آیا سیستم‌های هوش مصنوعی ممنوع یا سیستم‌های پرخطر هستند یا خیر. اگر تصمیم گرفته شود که آنها سیستم‌های هوش مصنوعی پرخطر را ارائه/استفاده می‌کنند، مشتریان باید یک رژیم نظارتی ایجاد کنند که شامل موارد زیر باشد:

  • ارزیابی ریسک رسمی و منظم؛

  • ارزیابی تاثیر پردازش داده ها؛ و

  • ا،امات سنگین نگهداری سوابق

خود سیستم های هوش مصنوعی باید از نظر طراحی شفاف و قابل توضیح باشند. برای استقرار/استفاده از این سیستم‌ها، شرایط استفاده از این سیستم‌ها مهم است، که قانون به‌طور خاص آن‌ها را به‌،وان یک جزء مهم در تنظیم سیستم‌های هوش مصنوعی پرخطر شناسایی می‌کند. به این ترتیب، قراردادها، کتابچه‌های راهنمای کاربر، قراردادهای مجوز کاربر نهایی، قراردادهای خدمات اصلی و غیره همگی باید در پرتو قانون جدید مورد بازنگری قرار گیرند.

دستورالعمل مسئولیت AI

در 28 سپتامبر 2022، کمیسیون پیشنهاد خود را برای دستورالعمل مسئولیت هوش مصنوعی منتشر کرد.AIDS). هدف از AILD تعیین قو،ن ی،ان برای بخش های خاصی از مسئولیت مدنی غیر قراردادی برای خسارات ناشی از سیستم های هوش مصنوعی است.

قو،ن مسئولیت فعلی ماهیت پیچیده هوش مصنوعی و مشکلات ذاتی مرتبط با تلاش برای شناسایی مسئولیت را برآورده نمی کند.

شایان ذکر است، این پیشنهاد حاوی یک ماده قابل ابطال است که در صورت بروز خطا با توجه به آسیب های ناشی از سیستم های هوش مصنوعی، ارتباط علت و معلولی را فرض می کند. هدف از این ماده این است که برای مصرف کنندگان آسیب دیده راهی آسان تر و موثر برای مطالبه غرامت فراهم کند.

علاوه بر این، بر اساس ماده 3 (1) AILD پیشنهادی، دادگاه این اختیار را دارد که در صورت ادعای ایجاد خسارت، دستور افشای شواهد مربوطه را از ارائه‌دهنده یک سیستم هوش مصنوعی در مورد سیستم‌های پرخطر صادر کند.

تاثیر بر ،ب و کارها

این امر به طور قابل ملاحظه ای ریسک مسئولیت مشتریان ویلیام فرای را که سیستم های هوش مصنوعی را در محصولات و/یا خدمات خود ادغام می کنند، افزایش می دهد. اگر ادعا می شود که آسیب توسط سیستمی ایجاد شده باشد که هوش مصنوعی را در خود جای داده است، قرب، آسیب نیازی به اثبات اینکه آسیب توسط سیستم هوش مصنوعی ایجاد شده است، نیست، بلکه توسعه دهنده/مالک سیستم هوش مصنوعی باید ثابت کند که سیستم هوش مصنوعی خسارت وارد نکرد یک فرض رد شدنی وجود دارد که سیستم هوش مصنوعی باعث آسیب شده است. این بدان م،است که مشتری، که محصولات یا خدماتی را که دارای سیستم‌های هوش مصنوعی هستند ارائه می‌کنند، باید در قراردادهای خود، به‌ویژه در رابطه با ضمانت‌ها، غرامت‌ها، و سقف‌ها و مستثنی شدن از مسئولیت، تجدید نظر کنند. همچنین ممکن است لازم باشد بیمه‌گران نحوه بیمه‌، ،ب‌وکارهایی که سیستم‌های هوش مصنوعی را در خود دارند، مجدداً ارزیابی کنند.

دستورالعمل مسئولیت محصول

در 28 سپتامبر 2022، کمیسیون یک دستورالعمل جدید مسئولیت محصول را پیشنهاد کرد.PLD). هدف PLD نوسازی قو،ن و ارائه یک سیستم جبران خسارت موثر در سطح اتحادیه اروپا برای ،، است که در نتیجه محصولات معیوب دچار آسیب فیزیکی یا آسیب به اموال می شوند. هدف PLD ارائه حمایت از افراد حقیقی صرف نظر از اینکه محصول معیوب در داخل یا خارج از اتحادیه اروپا تولید شده است، با اطمینان از وجود یک تجارت مستقر در اتحادیه اروپا که می‌توان آن را مسئول دانست.

PLD تغییرات در نحوه تولید، توزیع و عملکرد محصولات را از زمان معرفی اولین PLD اتحادیه اروپا در سال 1985 (دستورالعمل 85/374/EEC) در نظر می گیرد. PLD مفهوم “محصول” را به “فایل ها و نرم افزارهای تولید دیجیتال” گسترش می دهد.

PLD اکنون همه محصولات دیجیتال را پوشش می دهد و قو،ن برای استفاده از فناوری های جدید و نوظهور اصلاح شده اند. PLD نقاط ضعف سایبری و به روز رس، نرم افزارها و سیستم های هوش مصنوعی را پوشش می دهد.

PLD همچنین محصولاتی را در اقتصاد دایره ای پوشش می دهد (مثلاً محصولات استفاده مجدد، بازسازی شده یا بازسازی شده).

تاثیر بر ،ب و کارها

مشابه دستورالعمل مسئولیت هوش مصنوعی، این بخش از قانون بر مشتریان ویلیام فرای به ویژه در رابطه با نحوه قرارداد با سایر طرف‌ها تأثیر می‌گذارد. مسائل مربوط به امنیت سایبری و عدم ارائه به‌روزرس،‌های نرم‌افزاری لازم، از نظر موارد مربوط به مسئولیت محصول، «نقص» محسوب می‌شوند. این باید در بندهای غرامت مشتریان، بندهای مسئولیت، پوشش بیمه، ضمانت‌ها و بندهای محرومیت منع، شود. مشتریان باید مدیریت ریسک خود را در پرتو این قانون جدید ارزیابی کنند.

محتوای این مقاله به منظور ارائه راهنمای کلی در مورد موضوع است. باید در مورد شرایط خاص خود از یک متخصص مشاوره بگیرید.


منبع: http://www.mondaq.com/Article/1253632