خانه اخبار هوش مصنوعی اتحادیه اروپا و «دستورالعمل سیستم‌های پرخطر
قانون

اتحادیه اروپا و «دستورالعمل سیستم‌های پرخطر»

آیا شرکت‌ها تا اوت ۲۰۲۶ آماده می‌شوند؟

۲۱ ژانویه ۲۰۲۶
زمان مطالعه: ۶ دقیقه
نویسنده: سایت هوش نُما با کمک هوش مصنوعی

چه اتفاقی افتاده؟

کمیسیون اروپا در آستانه فوریه ۲۰۲۶ قرار بود راهنمای نهایی «طبقه‌بندی سیستم‌های هوش مصنوعی پرخطر» را منتشر کند تا کسب‌وکارها و سازندگان، خود را برای اجرای مقررات مربوط به سیستم‌های پرخطر تا ضرب‌الاجل اوت ۲۰۲۶ آماده کنند. اما گزارش‌های خبری اخیر نشان می‌دهند که نسخهٔ نهایی ممکن است به تأخیر بیفتد و به‌جای انتشار قطعی، پیش‌نویس یا مشاورهٔ عمومی منتشر شود.

شرحِ خبر

  • «سیستم‌های پرخطر» در متن قانون اتحادیه اروپا (AI Act) به آن دسته از سامانه‌های هوش مصنوعی گفته می‌شود که در حوزه‌هایی مثل سلامت، حمل‌ونقل، استخدام، خدمات مالی، و نظارت عمومی استفاده می‌شوند و در صورت بروز خطا می‌توانند به حقوق یا سلامت مردم آسیب بزنند. (این تعریف بخش‌محور و فنی دارد؛ که در راهنماها شفاف‌تر می‌شود).
  • هدف دستورالعمل، ارائهٔ فهرست‌‌‌های عملی و مثال‌های روشن است تا شرکت‌ها بدانند کدام محصول یا سرویس‌شان «پرخطر» محسوب می‌شود و چه الزاماتی باید رعایت شود (مثل مدیریت ریسک، مستندسازی، شفافیت و گزارش حوادث).
  • خبرگزاری‌ها گزارش داده‌اند که کمیسیون ممکن است نتواند تا تاریخ قانونی ۲ فوریه ۲۰۲۶ همهٔ نکات را نهایی کند و به‌جای آن، پیش‌نویسی برای مشاوره عمومی منتشر کند؛ یعنی برخی جزئیات ممکن است بعدی‌تر روشن شوند.

چرا این خبر مهم است؟

  1. چون «تعریف پرخطر» تعیین‌کنندهٔ دامنهٔ اصلی مقررات است. اگر یک سامانه در فهرست پرخطر بیفتد، الزامات سنگین‌تری مثل ارزیابی انطباق، مدیریت ریسک و گزارش‌ دهی دارد — و این یعنی هزینه و فرایند بیشتری برای سازنده و عرضه‌کننده.
  2. شفاف‌نبودن یا تأخیر در دستورالعمل به معنای «عدم قطعیت» برای بازار است: سرمایه‌گذاران، استارتاپ‌ها و بخش‌های صنعتی نمی‌دانند دقیقا چه استانداردهایی لازم است، پس بعضی از پروژه‌ها ممکن است به تعویق بیفتند یا هزینهٔ تطبیق بالا رود. گزارش‌هایی هم از بازنگری‌های بزرگ‌تر (مثل بستهٔ «Digital Omnibus») وجود دارد که بازه‌های زمانی اجرا را تغییر داده یا پیشنهاد به تعویق انداختن برخی الزامات کرده‌اند.
  3. برای شهروندان هم مهم است: تعریف پرخطر تعیین می‌کند کدام سرویس‌ها از کنترل شدیدتر برخوردارند و کجا حق پیگیری، شفافیت یا مراجعه به سازمان‌های ناظر قوی‌تر خواهد بود. این مسأله به حریم خصوصی، ایمنی و اعتماد عمومی برمی‌گردد.

تأثیر روی کاربران، بازار و آینده

  • کاربران نهایی: در کوتاه‌مدت تغییر زیادی حس نمی‌کنند؛ اما در میانه‌مدت، خدمات پزشکی، مالی یا دولت الکترونیک که از هوش مصنوعی استفاده می‌کنند باید شفاف‌تر و مطمئن‌تر شوند — یا دست‌کم در تبلیغات و مدارکشان توضیح بدهند که چه کنترل‌هایی دارند.
  • شرکت‌ها و استارتاپ‌ها: اگر محصولِ شما بالقوه «پرخطر» شناخته شود، باید برای هزینه‌های انطباق، مستندسازی و ارزیابی مستقل برنامه‌ریزی کنید. تأخیر در دستورالعمل ممکن است به بعضی شرکت‌ها زمان بدهد، ولی در عین حال عدم قطعیت، سرمایه‌گذاری را کند می‌کند.
  • بازار جهانی هوش مصنوعی: قواعد اروپا اغلب الگو می‌شوند — بنابراین شفاف‌سازی یا بازتعریف «پرخطر» در اتحادیه اروپا می‌تواند استانداردهای بین‌المللی را هم جابه‌جا کند. آیا شرکت‌های بزرگ جهانی سیاست‌های خود را پیش از موعد هماهنگ خواهند کرد یا منتظر متن نهایی می‌مانند؟ این پرسشی است که بازار باید به آن پاسخ دهد.


رویداد مرتبط
کمیسیون پیش‌تر مجموعه‌ای از دستورالعمل‌ها و کدهای عملیاتی (مثل راهنماهای مربوط به مدل‌های عمومی یا مدیریت ریسک) منتشر کرده یا در دست تهیه دارد؛ و نهادهای نظارتی مثل EDPS نیز راهنمای مدیریت ریسک منتشر کرده‌اند تا همخوانی میان حفاظت اطلاعات و مقررات AI حفظ شود. این پیش‌زمینه نشان می‌دهد که کمیسیون در پی ساختن چارچوبی هماهنگ است، اما جزئیات هنوز در حال تکمیل‌اند.

چند پرسش

  • اگر سرویس یا محصول شما از هوش مصنوعی استفاده می‌کند، آیا تا به‌حال ارزیابی ریسک انجام داده‌اید؟
  • آیا می‌دانید در صورت وقوع «حادثهٔ جدی»، چه کسی مسئول گزارش آن خواهد بود؟
  • شرکت شما برای هزینه‌ها و نیروی انسانی لازم جهت انطباق با «پرخطر» شدن محصول آماده است یا نه؟

جمع‌بندی

کمیسیون اروپا در تلاش است قواعد را طوری روشن کند که هم ایمنی مردم حفظ شود و هم نوآوری خفه نشود. اما زمانبندی و جزئیات هنوز محل بحث‌اند؛ نتیجهٔ این توازن، مسیر توسعهٔ هوش مصنوعی در اروپا و تأثیر آن بر شرکت‌ها و شهروندان را تعیین خواهد کرد. اگر شما تولیدکننده یا مصرف‌کنندهٔ خدمات مبتنی بر هوش مصنوعی هستید، حالا وقت برنامه‌ریزی و آماده‌سازی است — حتی اگر متن نهایی کمی دیرتر بیاید.

منابع معتبر