ممنوعیتهای هوش مصنوعی در قانون اتحادیه اروپا؛ تنش با آمریکا در حوزه فناوری بیشتر میشود
ایالات متحده آمریکا
بزرگنمايي:
ایرانیان جهان - به گزارش خبرنگار مهر؛ قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)، از تاریخ سوم فوریه 2025 وارد مرحله اجرایی شد.
این قانون از سوی بسیاری از کارشناسان به عنوان یک نقطه عطف راهبردی در مسیر حکمرانی فناوریهای نوین و هوشمند تلقی میشود.
متخصصان بر این باورند که اتحادیه اروپا در قانون جامع هوش مصنوعی خود با تکیه بر اصول بنیادین حکمرانی دادهمحور، هدفی دوگانه را دنبال میکند:
نخست، تسریع روند نوآوریهای فناورانه از طریق ایجاد شفافیت و الزامات عملیاتی مشخص دوم، ارتقای ملاحظات اخلاقی و امنیتی در بستر فناوری بررسیهای صورت گرفته نشان میدهد که این چارچوب نظارتی فراگیر، زمینهای برای کنترل و نظارت جامع بر استفاده از هوش مصنوعی در بخشهای مختلف صنعتی، اجتماعی و دولتی فراهم کرده و به دنبال کاهش مخاطرات بالقوه در کنار حمایت از پیشرفت پایدار است.
این در حالی است که به نظر میرسد اجرای الزامات تعیین شده در این سند حقوقی، تبعات و تأثیرات بنیادین بر آینده هوش مصنوعی خواهد داشت. مهر در این نوشتار کوتاه به مرور برخی از دیدگاههای مطرح شده در این زمینه میپردازد.
سیستم طبقهبندی مبتنی بر ریسک و چالشهای نظارتی
این قانون با اتخاذ رویکردی مبتنی بر ارزیابی مخاطرات، کاربردهای هوش مصنوعی را به سه دسته کلیدی تفکیک میکند:
کاربردهای ممنوعه کاربردهای پرخطر کاربردهای کمخطر دستهبندی مذکور به منظور مدیریت ریسکهای مرتبط با فناوری و حفاظت از منافع عمومی طراحی شده است. بر همین اساس، کاربردهای ممنوعه شامل سیستمهایی هستند که به دلیل نقض آشکار حقوق اساسی انسانها، مانند نظارت بیرویه یا دستکاری شناختی، بهطور کامل ممنوع اعلام شدهاند. بر همین اساس، تمامی سیستمهای هوش مصنوعی که تهدیدی آشکار برای ایمنی، معیشت و حقوق افراد محسوب میشوند، ممنوع هستند. قانون هوش مصنوعی (AI Act) هشت رویه را بهعنوان اقدامات ممنوعه تعریف کرده است که عبارتاند از:
دستکاری و فریب مبتنی بر هوش مصنوعی بهکارگیری از هوش مصنوعی در راستای سوءاستفاده از آسیبپذیریها سیستمهای امتیازدهی اجتماعی (Social Scoring) ارزیابی یا پیشبینی ریسک ارتکاب جرم توسط افراد استخراج اطلاعات (Scraping) بدون هدف مشخص از اینترنت یا دادههای دوربینهای مدار بسته به منظور ایجاد یا گسترش پایگاههای داده تشخیص چهره شناسایی احساسات در محیطهای کاری و مؤسسات آموزشی طبقهبندی زیستسنجی (Biometric Categorisation) برای استنباط ویژگیهای حساس (مانند جنسیت، نژاد یا مذهب) سیستمهای شناسایی زیستی از راه دور و آنی در مقابل، کاربردهای پرخطر که در حوزههای استراتژیکی چون زیرساختهای حیاتی، نظام سلامت و فرآیندهای حساس استخدامی قرار میگیرند، تحت نظارتهای شدید و الزامات سختگیرانهتری نظیر ارزیابی جامع تأثیرات، گزارشدهی شفاف و پایش مستمر فعالیتها قرار دارند. این الزامات شامل تهیه مستندات دقیق از دادههای مورد استفاده، کنترل سوگیریهای احتمالی و تضمین پایداری سیستمهای هوش مصنوعی میشوند.
بر اساس ادعای مطرح شده از سوی مسئولان اروپایی و مدافعان اجرای این قانون، تدابیر نظارتی در راستای کاهش آسیبهای اجتماعی، حقوقی و اقتصادی ناشی از عملکرد نادرست یا غیراخلاقی فناوریهای هوشمند وضع شدهاند و بر اهمیت مسئولیتپذیری سازمانها در مواجهه با چالشهای پیچیده حاکمیتی تأکید دارند.
معافیت کاربردهای نظامی و پیامدهای راهبردی
یکی از موضوعات مهم و شاید برجستهترین نکته در این قانون، معافیت صریح سیستمهای هوش مصنوعی مورد استفاده در بخشهای نظامی و امنیت ملی است. این استثنا بیانگر رویکردی راهبردی در راستای حفظ مزیت رقابتی و پیشگامی فناورانه در حوزه دفاعی است. در این حوزه، فناوریهای مبتنی بر هوش مصنوعی در بخشهایی چون شناسایی تهدیدات خودکار، امنیت سایبری پیشرفته، تحلیل و پیشبینیهای تاکتیکی و مدیریت عملیات میدانی نقش کلیدی دارند. مدافعان این تصمیم، مدعی هستند که چنین کاربردهایی، به دلیل ماهیت حساس و محرمانه خود، به سرعت عمل و انعطافپذیری بالا در تصمیمگیریهای عملیاتی نیاز دارند؛ بنابراین، اعمال مقررات سختگیرانه در این زمینه میتواند توسعه و پیادهسازی بهموقع این فناوریها را مختل کرده و بر کارآمدی مأموریتهای امنیتی تأثیر منفی بگذارد. معافیت مذکور تضمین میکند که نهادهای نظامی بتوانند با تمرکز بر نوآوریهای فناورانه، بدون تأخیرهای ناشی از فرایندهای نظارتی، به ارتقا قابلیتهای دفاعی و امنیتی خود ادامه دهند.
این در حالی است که از سوی دیگر، بسیاری از کارشناسان، معافیت سامانههای دفاعی را به عنوان یکی از حساسترین حوزههای کاربرد هوش مصنوعی، بسیار خطرناک و مخرب ارزیابی میکنند؛ زیرا در چنین شرایطی، بسیاری از سامانههای هوش مصنوعی ناقض حقوق بشر در میدانهای نبرد، بدون هیچ محدودیتی امکان توسعه دارند.
سختگیریهای مقرراتی در کاربردهای مدنی
بر اساس قانون هوش مصنوعی اروپا، در مقابل، کاربردهای مدنی هوش مصنوعی ملزم به رعایت مجموعهای از مقررات سختگیرانه و چندلایه هستند. قانونگذاران اروپایی معتقدند که این مقررات به نحوی طراحی شدهاند که از بروز تخلفات اخلاقی، نقض حریم خصوصی و تصمیمگیریهای ناعادلانه جلوگیری کنند. علاوه بر این، دفتر هوش مصنوعی کمیسیون اروپا به عنوان نهاد نظارتی اصلی، وظیفه دارد تا از انطباق این سیستمها با اصول اساسی نظارت انسانی، شفافیت در عملکرد و مسئولیتپذیری اطمینان حاصل کند. بهویژه در بخشهایی نظیر اعطای وام، فرآیندهای استخدامی و تشخیصهای پزشکی که تأثیرات تصمیمات هوش مصنوعی میتواند عمیق و سرنوشتساز باشد، این نظارتها اهمیتی دوچندان مییابند.
بر اساس الزامات این قانون، سازمانها و توسعهدهندگان هوش مصنوعی باید مستندات کاملی را تهیه کنند که جزئیاتی از قبیل منابع دادههای آموزشی، روشهای مورد استفاده برای کاهش و کنترل سوگیریها و فرآیندهای تصمیمگیری الگوریتمی را شامل میشود. به علاوه، ارزیابیهای منظم برای بررسی عملکرد سیستمها و میزان تطابق آنها با موازین اخلاقی و فنی الزامی است. بیشک چنین رویکردی، نه تنها به افزایش اعتماد عمومی به کاربردهای هوش مصنوعی کمک میکنند، بلکه زمینه را برای پاسخگویی در برابر هرگونه تخلف احتمالی نیز فراهم میسازد.
امنیت دادهها و تقویت سازوکارهای مقابله با اطلاعات جعلی
از دیگر محورهای کلیدی قانون هوش مصنوعی اتحادیه اروپا، توجه عمیق به امنیت دادهها و حفظ حریم خصوصی است که بهعنوان یکی از اصول بنیادین حکمرانی فناوری اروپا محسوب میشود. توسعهدهندگان فناوری در راستای اجرای این قانون، موظف به اجرای پروتکلهای پیشرفته امنیت سایبری هستند تا از خطراتی چون حملات سایبری گسترده، دسترسی غیرمجاز به دادهها و نقض حقوق حریم خصوصی جلوگیری کنند. این اقدامات شامل رمزنگاری دادهها، کنترلهای دسترسی چندلایه و نظارت مستمر بر امنیت سیستمها میشود.
در راستای مقابله با انتشار اطلاعات جعلی و محتوای گمراهکننده، ابزارهای هوش مصنوعی که توانایی تولید محتوای جعلی و دیپفیک دارند، ملزم به استفاده از مکانیزمهای پیشرفته تأیید هویت دیجیتال و برچسبگذاری شفاف محتوا شدهاند. این مکانیزمها به کاربران اجازه میدهند تا صحت و منبع اطلاعات ارائه شده را بررسی کرده و از گسترش اطلاعات نادرست جلوگیری نمایند. همچنین، توسعهدهندگان باید گزارشهای ادواری درباره امنیت و عملکرد این ابزارها ارائه دهند و با ارزیابیهای مستمر، از انطباق آنها با الزامات قانونی اطمینان حاصل کنند.
پیامدهای بینالمللی و چارچوب حکمرانی آینده
تحلیلگران بر این باورند که قانون هوش مصنوعی اروپا با ارائه مدلی جامع و فراگیر برای تنظیمگری فناوریهای هوشمند، تأثیرات گسترده و چندبُعدی بر سیاستگذاری جهانی خواهد داشت. این قانون نه تنها به عنوان ابزاری برای مدیریت و نظارت بر نوآوریهای فناورانه درون مرزهای اتحادیه اروپا به کار گرفته میشود، بلکه به دلیل جامعیت و سازگاری آن با اصول حکمرانی مدرن، به یک مرجع بینالمللی در حوزه هوش مصنوعی تبدیل شده است.
مباحث مطرح شده در این قانون، شامل مسئولیتپذیری اخلاقی، امنیت فناوری و ترویج نوآوری پایدار، به گونهای طراحی شدهاند که کشورهای دیگر نیز بتوانند آن را به عنوان الگویی برای تدوین چارچوبهای مشابه در نظامهای قانونی خود در نظر بگیرند. از سوی دیگر، جمعیت بالای منطقه اتحادیه اروپا و اثرگذاری بالای کشورهای این بلوک بر سیاستهای جهانی، راه را برای اشاعه آن در همه نقاط جهان هموار ساخته است. از همین روی، انتظار میرود که اجرای این مقررات، تعاملات فراملی در زمینههای مرتبط با فناوریهای هوشمند را تقویت کرده و موجب هماهنگی بیشتری میان نظامهای حکمرانی فناوری در سطح جهانی شود.
از سوی دیگر، برخی کارشناسان معتقدند که تضاد این قانون با سیاستهای ایالات متحده آمریکا مبنی بر آزادی عمل بیشتر شرکتهای و استارتاپهای هوش مصنوعی برای توسعه فناوری و رویکرد چین مبنی بر عدم پایبندی به برخی از محورهای مورد اشاره در این سند حقوقی، میتواند زمینهساز برخی تنشهای ژئوپلیتیک در مقیاس جهانی شود.
الزامات اجرایی کسبوکارها در راستای انطباق با قانون هوش مصنوعی اروپا
در این میان، سازمانها و کسبوکارهایی که در حوزه توسعه و بهرهبرداری از سیستمهای هوش مصنوعی فعالیت دارند، ناگزیرند تا رویکردی پیشگیرانه و راهبردی در مواجهه با تغییرات مداوم مقررات اتخاذ کنند. این امر مستلزم درک عمیق از چارچوبهای نظارتی، ارزیابی مستمر عملکرد سیستمهای هوش مصنوعی و انطباق آنها با استانداردهای اخلاقی، فنی و امنیتی است. بر اساس برآوردهای صورت گرفته، با ظهور فناوریهای نوین، بهویژه در حوزههایی نظیر یادگیری عمیق، سیستمهای خودمختار و تعاملات پیچیده انسان و ماشین، چارچوبهای نظارتی به صورت مداوم بازنگری شده و به جنبههایی همچون کاهش سوگیریهای الگوریتمی، ارتقای شفافیت در تصمیمگیریها و افزایش نظارت انسانی توجه بیشتری خواهد شد.
علاوه بر این، به نظر میرسد که کسبوکارها باید به شکلی فعال در فرآیندهای تدوین و بازنگری مقررات مشارکت داشته باشند و با بهرهگیری از متخصصان حقوقی و فنی، اطمینان حاصل کنند که سیستمهای هوش مصنوعی آنها ضمن رعایت قوانین، قابلیت پاسخگویی در برابر چالشهای پیشبینینشده را دارند.
کد خبر 6370201
لینک کوتاه:
https://www.iranianejahan.ir/Fa/News/1355172/