سفارش تبلیغ
صبا ویژن

معرفی انواع سیستم های هوش مصنوعی

کتاب هوش مصنوعی

استفاده از کتاب هوش مصنوعی در صنعت علوم زندگی موضوعی داغ است و بسیاری در مورد کاربردهای بالقوه آن هیجان زده هستند ، اما استفاده از آن چگونه تنظیم می شود؟ کمیسیون اتحادیه اروپا اخیراً پیشنهادی را برای اولین چارچوب قانونی در مورد هوش مصنوعی تصویب کرده است که تعهداتی را به مشاغل مختلف در بخشهای مختلف ، از جمله علوم زندگی (مقررات) تحمیل می کند. با توجه به تأثیر بالقوه آن ، قطعاً یکی از مواردی است که مراحل قانونی را طی می کند.

تعریف AI

این آیین نامه در حال حاضر سیستم های هوش مصنوعی را به عنوان "نرم افزاری تعریف می کند که با یک یا چند رویکرد و تکنیک [معین] ساخته شده است. . . و می تواند برای مجموعه ای مشخص از اهداف تعریف شده توسط بشر ، خروجی هایی مانند محتوا ، پیش بینی ها ، توصیه ها یا تصمیمات تأثیرگذار بر محیط هایی را که با آنها همکاری نمی کنند ، ایجاد کند. " در ضمیمه I آیین نامه (که EC می تواند به صورت دوره ای به روز کند) تکنیک ها و نرم افزارهایی که می توانند مورد توجه این تعریف قرار بگیرند ، شامل یادگیری ماشین ، رویکردهای مبتنی بر منطق و دانش و رویکردهای آماری آورده شده است. این لیست به طور هدفمند گسترده به نظر می رسد تا بتواند هرچه بیشتر سیستم را بدست آورد.

رویکرد مبتنی بر ریسک

هدف از این آیین نامه اطمینان از سطح اعتماد به سیستم های هوش مصنوعی است که در دسترس هستند و بر این اساس ، یک رویکرد مبتنی بر ریسک را اتخاذ می کند:

خطر غیرقابل قبول: سیستم های هوش مصنوعی که تهدیدی جدی برای امنیت ، معیشت یا حقوق افراد محسوب می شوند ، ممنوع خواهد بود. به عنوان مثال ، برنامه هایی که رفتار انسان را به گونه ای دستکاری می کنند که اراده آزاد کاربران یا سیستم هایی را که اجازه نمره دهی توسط دولت ها را می دهد ، دور می زند.
پرخطر: چندین دسته از سیستم های هوش مصنوعی به عنوان پرخطر شناخته می شوند. برخی از دسته هایی که احتمالاً در صنعت علوم زندگی تأثیر می گذارند عبارتند از: انواع اجزای ایمنی و محصولات (به عنوان مثال در دستگاه های پزشکی). اجرای عدالت (در تعیین نحوه اجرای قانون در مورد مجموعه ای از حقایق ، که ممکن است در مورد هر سیستمی که برای کمک به فرآیندهای نظارتی پزشکی طراحی شده است) اعمال شود. شناسایی بیومتریک از راه دور و طبقه بندی افراد (به عنوان مثال شناسایی بیمار).
ریسک محدود: سیستم های هوش مصنوعی که تعهدات شفافیت خاصی دارند - به عنوان مثال چت بات ها برای اطمینان از آگاهی کاربران از تعامل با دستگاه مورد نیاز خواهند بود.
حداقل خطر: به عنوان مثال بازی های ویدیویی یا فیلترهای اسپم که از هوش مصنوعی استفاده می کنند. انتظار می رود که بیشتر برنامه های کاربردی هوش مصنوعی با حداقل خطر کم برای حقوق یا ایمنی افراد در این گروه قرار گیرند ، هرچند ارائه دهندگان چنین سیستم هایی تشویق می شوند که به صورت داوطلبانه از آن تبعیت کنند