از اکتبر ۲۰۲۵ (مهر ۱۴۰۴)، شرکتهای اروپایی فعال در حوزه فناوری هوش مصنوعی ملزم به اجرای الزامات جدید قانون AI Transparency Act 2025 شدند. این قانون که یکی از مکملهای کلیدی «AI Act 2024» محسوب میشود، محور اصلی خود را بر شفافیت منطق تصمیمگیری الگوریتمها، ترجیحزدایی (Bias Mitigation) و افشای منبع دادههای آموزشی قرار داده است.
مبنای این قانون در پارلمان اروپا از ژوئن ۲۰۲۵ تصویب شد و اکنون در مرحله اجرای سراسری قرار گرفته است. هدف آن «قابلیت ممیزی مستقل» برای همه سامانههای هوش مصنوعی پرریسک است. بر اساس ماده ۷، هر شرکت عرضهکننده مدل زبانی یا تصویری بزرگ در اتحادیه اروپا باید:
- منشأ دادههای آموزشی را تا ۹۵٪ بهصورت مستند اعلام کند،
- ساختار و پارامترهای اصلی مدل را در «گزارش شفافیت عمومی» درج نماید،
- امکان پیگیری انسانی تصمیمات الگوریتمی (Human‑Audit Path) را فراهم سازد،
- و در صورت استفاده از دادههای بیومتریک یا صوتی، رضایت کاربر را بهصورت ثبتشده ارائه دهد.
شرکتهای بزرگ اروپایی از جمله SAP، Siemens Digital Industries، DeepMind EU، و Aleph Alpha اعلام کردند سامانههای خود را با الزامات جدید منطبق ساختهاند.
- SAP برای سیستم AI تولیدی خود، ماژول Explainable Tensor Core v2 را فعال کرده تا مدیران صنعتی بتوانند مسیر تصمیمات خودکار را بهصورت گرافیکی ردیابی کنند.
- DeepMind EU بخشی از دادههای آموزشی Gemini‑EU را در «پایگاه باز EuroData Portal» منتشر کرده است.
- شرکتهای کوچک‑متوسط (SMEs) نیز طبق بند ۱۲ قانون، تا مارس ۲۰۲۶ دارند تا گواهی تبعیت دریافت کنند.
نظارت بر اجرای قانون بر عهده European AI Transparency Board (EATB) است — نهادی تازه که مقر آن در هامبورگ قرار دارد و متشکل از متخصصان داده، حقوقدانان اتحادیه و نمایندگان جامعه مدنی است.
جریمهها در سطحی بازدارنده تعیین شدهاند:
- تا ۶٪ از درآمد سالانه جهانی شرکت برای پنهانسازی دادههای آموزشی،
- و تا ۳۰ میلیون یورو برای عدم ارائه مسیر ممیزی انسانی.
اجرای این قانون، اروپا را به نخستین منطقهای بدل میکند که بر «قابلیت توضیح هوش مصنوعی» (AI Explainability) الزام حقوقی اعمال میکند. این اقدام فشار زنجیرهای به شرکتهای آمریکایی و آسیایی وارد میکند که مایل به فعالیت یا فروش مدلهای خود در EU هستند؛ چون اکنون مجبورند شرح فنی الگوریتمها را نیز ارائه دهند.
برخی تحلیلگران این سیاست را پاسخ نرم اروپا به سلطه مدلهای GPT و Gemini میدانند؛ تلاشی برای حفظ حاکمیت دادهای قاره از مسیر شفافیت نه تحریم.
مدافعان حریم خصوصی مانند EDRi (European Digital Rights) این قانون را «پیروزی شفافیت» توصیف کردهاند، اما گروهی از شرکتهای نوپا هشدار دادهاند که الزامات افشای دادهها میتواند نوآوری را کند کرده و هزینه انطباق را تا ۲۰٪ افزایش دهد. با این حال، کمیسیون اروپا تأکید کرده مدلهایی که با این استاندارد منطبق شوند، «نشان اعتماد هوش مصنوعی اروپا» دریافت خواهند کرد — برچسبی که میتواند در صادرات فناوری برتری رقابتی ایجاد کند.
مشتاق نظرات شمائیم