گزارشات هوش مصنوعی کمیسیون حقوق بشر استرالیا

پنجشنبه گذشته ، کمیسیون حقوق بشر استرالیا (AHRC) گزارش نهایی خود را درباره حقوق بشر و امنیت سایبری منتشر کرد. این گزارش جامع و متراکم است و 38 توصیه را ارائه می دهد که در مقایسه با برخی از مقررات بحث شده سیستم عامل های دیجیتال در خارج از کشور ، نسبتاً متوسط ??هستند.

تز اصلی این گزارش این است که موفقیت هوش مصنوعی به اعتماد بین دولت ، تجارت و جامعه بستگی دارد و کلید ایجاد چنین اعتمادی اطمینان از این است که حقوق بشر در سیاست های ملی AI است. این گزارش معیار زیر را برای سیاست ملی هوش مصنوعی تعیین می کند که در حال حاضر توسط وزارت نخست وزیر و کابینه در حال تدوین است:

"استراتژی های ملی یا منطقه ای خوب در مورد هوش مصنوعی و سایر فن آوری های جدید دارای برخی عناصر مشترک هستند: آنها شامل استانداردهای بین المللی حقوق بشر ، از جمله اقدامات عملی برای اطمینان از حمایت از حقوق با پاسخگویی و مکانیزم های شکایت هستند. آنها آموزش و آموزش حقوق بشر را برای طراحان و توسعه دهندگان فناوری جدید ترویج می دهند. این اقدامات شامل اقدامات نظارتی ، توسعه و نظارت بر سیاست ها است. آنها رویکردهای کل دولت را برای اطمینان از سازگاری بین دستگاهها و نحوه اجرای آنها دارند. آنها بر تأثیرات کنونی و آینده فناوری ها بر جامعه تمرکز می کنند. "

این گزارش هشدار می دهد که "هر کشور استراتژی های ملی هوش مصنوعی را اتخاذ کرده است ، اما تعداد اندکی چگونگی ارتقا، ، حمایت و احترام حقوق بشر در استفاده از هوش مصنوعی را تعیین می کنند."

تنظیم الگوریتم ها در مقابل نتایج

این گزارش خاطر نشان می کند که برخی از حوزه های قضایی خارج از کشور ، مانند کانادا ، رویکرد تنظیم مستقل الگوریتم خاص را در پیش گرفته اند. کمیسیون متذکر می شود که با این روش مخالف است ، زیرا فکر می کند:

استفاده فعلی و بالقوه از هوش مصنوعی تقریباً بی حد و حصر است ، بنابراین شناسایی اصول عمومی حقوقی که در همه سناریوها اعمال می شود بسیار دشوار است.
از آنجا که هوش مصنوعی یک اصطلاح هنری نیست ، تهیه قانونی که درمورد هوش مصنوعی است با دقت کافی برای ارائه وضوح و اطمینان به کسانی که باید آن را دنبال ، اعمال و اجرا کنند ، دشوار است. و
مردم اساساً تحت تأثیر نحوه استفاده از فناوری قرار می گیرند. این می تواند نوآوری را غیر ضروری کند که نیاز به انجام یک فعالیت خاص (مانند تصمیم گیری) فقط از طریق یک روش یا یک فناوری واحد یا یک روش واحد برای استفاده از آن باشد.
در عوض ، کمیسیون استدلال می کند که تمرکز مقررات باید بر روی (الف) نتایج باشد - هم فرآیند تصمیم گیری و خود تصمیم ، و (ب) تا آنجا که AI در جایگزینی یا در ترکیب با انسان استفاده می شود ، این چگونه بر انصاف تأثیر می گذارد.

تصمیم گیری دولت توسط AI

تصمیم گیری دولت با استفاده از هوش مصنوعی در اینجا موجود است: بخش 495A قانون مهاجرت 1958 (Cth) به وزیر مسئول اجازه می دهد "برای استفاده ، از برنامه های رایانه ای تحت کنترل وزیر" برای تصمیم گیری ، اعمال قدرت یا مطابقت برنامه ریزی کند با هر تعهدی مجوزهای مشابه تحت بخش 6A قانون تأمین اجتماعی (اداره) قانون 1999 (Cth) و بخش 4B قانون حق سربازان قدیمی 1986 (Cth) ارائه شده است. این گزارش خاطرنشان می کند که در خارج از کشور ، مانند GDPR اتحادیه اروپا ، ممنوعیت هایی برای افراد وجود دارد ، به استثنای برخی موارد ، "فقط مبتنی بر پردازش خودکار ، از جمله پروفایل" تصمیم گرفته می شود که این تصمیم اثر قانونی یا مشابه قابل توجهی داشته باشد. در نهایت ، کمیسیون چنین خط مشی سختگیری را اتخاذ نمی کند. در عوض ، این یک چارچوب قانونی برای استفاده از هوش مصنوعی در تصمیم گیری توسط دولت پیشنهاد می کند که مستلزم این است:

سازمان های دولتی قبل از اتخاذ هر سیستم تصمیم گیری جدید با آگاهی از هوش مصنوعی برای تصمیم گیری های اداری ، ارزیابی تأثیر حقوق بشر (HRIA) - متمرکز بر ریسک - را انجام می دهند. و
روند HRIA شامل یک مشاوره عمومی در مورد سیستم پیشنهادی جدید برای تصمیم گیری ،
و اگر تصمیم گیری هوش مصنوعی ادامه یابد:

وقتی تصمیمی که آنها را تحت تأثیر قرار می دهد با استفاده از تصمیم گیری آگاهانه از هوش مصنوعی باید به افراد آگاه شود.
آژانس دولتی باید هم انگلیسی ساده و هم توضیح فنی درباره روند تصمیم گیری آگاهانه از هوش مصنوعی ارائه دهد. و
بررسی شایستگی های خارجی قبل از یک دادگاه مستقل به طور کلی باید در مورد هرگونه تصمیمات اداری آگاه از هوش مصنوعی در دسترس باشد.
این گزارش چالش های اعمال این الزام را به دلایلی - یک اصل اساسی قانون اداری - در تصمیم گیری آگاهانه از هوش مصنوعی برجسته می کند:

"... استفاده از هوش مصنوعی می تواند منطق یا دلایل تصمیم گیری را پنهان کند ، که به نوبه خود می تواند حق قانونی دلایل را از بین ببرد. این مشکل اغلب به عنوان" مات "یا" جعبه سیاه "AI شناخته می شود. مفهوم" توضیح پذیری " همانطور که [یکی از ارسال کنندگان] مشاهده کرد ، برای هوش مصنوعی که به یادگیری بدون نظارت می پردازد ، "در اصل ارزیابی نتایج برای صحت یا قابلیت اطمینان غیرممکن است."