شرکت‌های اروپایی قانون جدید AI Transparency Act 2025 را اجرایی کردند

AI-Transparency-قانون‑هوش‌مصنوعی-افشای‌داده-Explainability-EATB-DeepMind-SAP-AlephAlphaحاکمیت‌داده-اتحادیه‌اروپا-ممیزی-الگوریتم-شفافیت تکینیو techinio

از اکتبر ۲۰۲۵ (مهر ۱۴۰۴)، شرکت‌های اروپایی فعال در حوزه فناوری هوش مصنوعی ملزم به اجرای الزامات جدید قانون AI Transparency Act 2025 شدند. این قانون که یکی از مکمل‌های کلیدی «AI Act 2024» محسوب می‌شود، محور اصلی خود را بر شفافیت منطق تصمیم‌گیری الگوریتم‌ها، ترجیح‌زدایی (Bias Mitigation) و افشای منبع داده‌های آموزشی قرار داده است.

مبنای این قانون در پارلمان اروپا از ژوئن ۲۰۲۵ تصویب شد و اکنون در مرحله اجرای سراسری قرار گرفته است. هدف آن «قابلیت ممیزی مستقل» برای همه سامانه‌های هوش مصنوعی پرریسک است. بر اساس ماده ۷، هر شرکت عرضه‌کننده مدل زبانی یا تصویری بزرگ در اتحادیه اروپا باید:

  • منشأ داده‌های آموزشی را تا ۹۵٪ به‌صورت مستند اعلام کند،
  • ساختار و پارامترهای اصلی مدل را در «گزارش شفافیت عمومی» درج نماید،
  • امکان پیگیری انسانی تصمیمات الگوریتمی (Human‑Audit Path) را فراهم سازد،
  • و در صورت استفاده از داده‌های بیومتریک یا صوتی، رضایت کاربر را به‌صورت ثبت‌شده ارائه دهد.

شرکت‌های بزرگ اروپایی از جمله SAP، Siemens Digital Industries، DeepMind EU، و Aleph Alpha اعلام کردند سامانه‌های خود را با الزامات جدید منطبق ساخته‌اند.

  • SAP برای سیستم AI تولیدی خود، ماژول Explainable Tensor Core v2 را فعال کرده تا مدیران صنعتی بتوانند مسیر تصمیمات خودکار را به‌صورت گرافیکی ردیابی کنند.
  • DeepMind EU بخشی از داده‌های آموزشی Gemini‑EU را در «پایگاه باز EuroData Portal» منتشر کرده است.
  • شرکت‌های کوچک‑متوسط (SMEs) نیز طبق بند ۱۲ قانون، تا مارس ۲۰۲۶  دارند تا گواهی تبعیت دریافت کنند.

نظارت بر اجرای قانون بر عهده European AI Transparency Board (EATB) است — نهادی تازه که مقر آن در هامبورگ قرار دارد و متشکل از متخصصان داده، حقوقدانان اتحادیه و نمایندگان جامعه مدنی است.

جریمه‌ها در سطحی بازدارنده تعیین شده‌اند:

  • تا ۶٪ از درآمد سالانه جهانی شرکت برای پنهان‌سازی داده‌های آموزشی،
  • و تا ۳۰ میلیون یورو برای عدم ارائه مسیر ممیزی انسانی.

اجرای این قانون، اروپا را به نخستین منطقه‌ای بدل می‌کند که بر «قابلیت توضیح هوش مصنوعی» (AI Explainability) الزام حقوقی اعمال می‌کند. این اقدام فشار زنجیره‌ای به شرکت‌های آمریکایی و آسیایی وارد می‌کند که مایل به فعالیت یا فروش مدل‌های خود در EU هستند؛ چون اکنون مجبورند شرح فنی الگوریتم‌ها را نیز ارائه دهند.

برخی تحلیل‌گران این سیاست را پاسخ نرم اروپا به سلطه مدل‌های GPT و Gemini می‌دانند؛ تلاشی برای حفظ حاکمیت داده‌ای قاره از مسیر شفافیت نه تحریم.

مدافعان حریم خصوصی مانند EDRi (European Digital Rights) این قانون را «پیروزی شفافیت» توصیف کرده‌اند، اما گروهی از شرکت‌های نوپا هشدار داده‌اند که الزامات افشای داده‌ها می‌تواند نوآوری را کند کرده و هزینه انطباق را تا ۲۰٪ افزایش دهد. با این حال، کمیسیون اروپا تأکید کرده مدل‌هایی که با این استاندارد منطبق شوند، «نشان اعتماد هوش مصنوعی اروپا» دریافت خواهند کرد — برچسبی که می‌تواند در صادرات فناوری برتری رقابتی ایجاد کند.

چین-Nvidia-محدودیت‌صادرات-H100-B100-AI-GPU-قانون‌فناوری-MIIT-SMIC-خودکفایی-هوش‌مصنوعی قبلی را بخوانید

چین محدودیت‌های جدیدی روی صادرات چیپ‌های Nvidia وضع کرد

چین-Nvidia-محدودیت‌صادرات-H100-B100-AI-GPU-قانون‌فناوری-MIIT-SMIC-خودکفایی-هوش‌مصنوعی بعدی را بخوانید

چین محدودیت‌های جدیدی روی صادرات چیپ‌های Nvidia وضع کرد

مشتاق نظرات شمائیم

نظر خود را بنویسید.