تصویب لایحه SB 1047 در کالیفرنیا: آینده هوش مصنوعی تحت نظارت دقیق‌تر قرار می‌گیرد

بخش عمده‌ای از قانون‌گذاری‌ها به ویژه در حوزه فناوری به نحوی است که باید به‌طور مستقیم از بروز مشکلات جدی جلوگیری کند. لایحه‌ای که اخیراً به نام SB 1047 در کالیفرنیا مطرح شده، تلاشی است در همین راستا؛ یعنی جلوگیری از بروز فجایعی که ممکن است با توسعه‌ی مدل‌های بزرگ هوش مصنوعی (AI) به وقوع بپیوندد. این لایحه با وجود اهداف نیکو، باعث بحث‌ها و اختلاف نظرهای گسترده‌ای در صنعت فناوری، به ویژه در سیلیکون ولی، شده است. در این مقاله، به بررسی جزئیات این لایحه، دیدگاه‌های موافقان و مخالفان آن، و تأثیرات احتمالی آن بر صنعت فناوری می‌پردازیم.

هدف SB 1047 چیست؟

لایحه SB 1047 با هدف جلوگیری از سوءاستفاده از مدل‌های بزرگ هوش مصنوعی که ممکن است به «آسیب‌های بحرانی» منجر شود، تدوین شده است. برای مثال، یکی از نگرانی‌های اصلی قانون‌گذاران این است که یک بازیگر بد بتواند از این مدل‌ها برای ایجاد سلاح‌های مرگبار یا انجام حملات سایبری عظیم استفاده کند. در این لایحه، توسعه‌دهندگان مدل‌های هوش مصنوعی مسئول اجرای پروتکل‌های ایمنی مناسب برای جلوگیری از چنین نتایجی شناخته شده‌اند.

چه مدل‌ها و شرکت‌هایی تحت این قانون قرار می‌گیرند؟

این قانون تنها به مدل‌های هوش مصنوعی بسیار بزرگ و پیچیده‌ای که هزینه‌ای بالغ بر ۱۰۰ میلیون دلار برای آموزش آنها صرف شده و در طول آموزش از ۱۰^۲۶ فلپس (FLOPS) استفاده کرده‌اند، اعمال می‌شود. این سطح از توان محاسباتی بسیار بالاست و تقریباً تمامی شرکت‌های بزرگ فناوری مانند OpenAI، گوگل و مایکروسافت به زودی تحت پوشش این قانون قرار خواهند گرفت.

در مورد مدل‌های منبع‌باز و مشتقات آنها، مسئولیت اصلی با توسعه‌دهنده اصلی است مگر اینکه توسعه‌دهنده دیگری بیش از ۱۰ میلیون دلار برای ایجاد یک مدل مشتق از مدل اصلی هزینه کند.

تصویب لایحه SB 1047 در کالیفرنیا

سازوکار اجرایی این قانون چگونه است؟

برای اجرای این قانون، یک نهاد جدید با نام «هیئت مدل‌های مرزی» در کالیفرنیا تأسیس خواهد شد که وظیفه نظارت بر رعایت این قانون را بر عهده دارد. تمامی مدل‌های هوش مصنوعی جدید که شرایط قانون SB 1047 را دارند، باید به طور جداگانه با یک نسخه مکتوب از پروتکل ایمنی خود تأیید شوند.

این هیئت نه نفره شامل نمایندگانی از صنعت هوش مصنوعی، جامعه منبع‌باز و دانشگاه‌ها خواهد بود که توسط فرماندار و مجلس کالیفرنیا منصوب می‌شوند. این هیئت مشاوره‌هایی به دادستان کل کالیفرنیا درباره نقض احتمالی این قانون ارائه می‌دهد و راهنمایی‌هایی برای توسعه‌دهندگان مدل‌های هوش مصنوعی درباره شیوه‌های ایمنی پیشنهاد می‌کند.

مدیر ارشد فناوری هر شرکت باید هر سال یک گزارش به هیئت ارائه کند که در آن به ارزیابی خطرات احتمالی مدل هوش مصنوعی، اثربخشی پروتکل ایمنی و شرح اقدامات شرکت برای رعایت این قانون پرداخته می‌شود. در صورت وقوع یک «حادثه ایمنی هوش مصنوعی»، توسعه‌دهنده باید ظرف ۷۲ ساعت از اطلاع از وقوع حادثه آن را به هیئت گزارش کند.

در صورتی که پروتکل‌های ایمنی توسعه‌دهنده ناکافی تشخیص داده شود، SB 1047 به دادستان کل کالیفرنیا اجازه می‌دهد که دستور توقف فعالیت یا آموزش مدل را صادر کند. اگر مدل هوش مصنوعی واقعاً در یک رویداد فاجعه‌بار مورد استفاده قرار گیرد، دادستان کل کالیفرنیا می‌تواند از شرکت شکایت کند و جریمه‌هایی که می‌تواند به ۱۰ میلیون دلار برای اولین تخلف و ۳۰ میلیون دلار برای تخلفات بعدی برسد، اعمال کند.

این قانون همچنین شامل حمایت‌های ویژه‌ای برای افشاگران است؛ یعنی افرادی که تلاش می‌کنند اطلاعاتی درباره یک مدل هوش مصنوعی ناامن را به دادستان کل کالیفرنیا افشا کنند.

دیدگاه موافقان چیست؟

سناتور اسکات وینر از کالیفرنیا که این لایحه را نویسندگی کرده است، معتقد است که SB 1047 تلاشی است برای یادگیری از شکست‌های سیاست‌گذاری‌های قبلی در حوزه‌هایی مانند رسانه‌های اجتماعی و حفظ حریم خصوصی داده‌ها و حفاظت از شهروندان قبل از اینکه دیر شود. او به تاریخچه‌ای اشاره می‌کند که در آن اغلب پس از وقوع آسیب‌ها، به جای پیشگیری از آنها، دست به واکنش‌های دیرهنگام می‌زنیم.

حامیان این لایحه، از جمله پژوهشگران برجسته هوش مصنوعی مانند جفری هینتون و یوشوا بنگیو، معتقدند که این قانون می‌تواند از وقوع سناریوهای فاجعه‌باری که ممکن است با توسعه بی‌محابای هوش مصنوعی به وجود آیند، جلوگیری کند. این پژوهشگران بخشی از گروهی هستند که به «دومرهای هوش مصنوعی» مشهور شده‌اند؛ یعنی افرادی که نگران آینده‌ی تاریکی هستند که ممکن است فناوری هوش مصنوعی به بار آورد.

دیدگاه مخالفان چیست؟

اما SB 1047 مخالفان زیادی نیز دارد. از جمله آنها شرکت‌های بزرگ فناوری، گروه‌های تحقیقاتی و سرمایه‌گذاران سیلیکون ولی هستند. از جمله مخالفان برجسته این لایحه، مارک آندریسن، یکی از بنیانگذاران شرکت سرمایه‌گذاری a16z، است که معتقد است این قانون می‌تواند اثرات منفی بر استارتاپ‌ها داشته باشد، چرا که سطح بالایی از هزینه‌ها را بر آنها تحمیل می‌کند و ممکن است نوآوری در حوزه هوش مصنوعی را در نطفه خفه کند.

فی-فی لی، که به عنوان «مادرخوانده هوش مصنوعی» شناخته می‌شود و از پژوهشگران برجسته دانشگاه استنفورد است، در مقاله‌ای که در اوایل آگوست منتشر کرد، نسبت به این قانون ابراز نگرانی کرد و آن را برای اکوسیستم نوپای هوش مصنوعی مضر دانست. او معتقد است که این قانون می‌تواند باعث کاهش نوآوری شود و تاکید کرد که نباید با نگرانی‌های مفرط درباره خطرات هوش مصنوعی، رشد و توسعه این فناوری را محدود کرد.

یکی دیگر از انتقادهای جدی به این لایحه از سوی توسعه‌دهندگان مدل‌های منبع‌باز است. اندرو نگ، پژوهشگر برجسته هوش مصنوعی و استاد دانشگاه استنفورد، این لایحه را «حمله‌ای به منبع‌باز» توصیف کرده و معتقد است که این قانون می‌تواند خطرات بیشتری برای توسعه‌دهندگان این مدل‌ها به همراه داشته باشد، زیرا مدل‌های منبع‌باز به راحتی قابل تغییر و استفاده در اهداف مخرب هستند.

آینده SB 1047 چیست؟

در حال حاضر، SB 1047 روی میز فرماندار کالیفرنیا، گاوین نیوسام، قرار دارد و او باید تا پایان آگوست تصمیم بگیرد که آیا این لایحه را به قانون تبدیل کند یا نه. اگر این قانون تصویب شود، احتمالاً با چالش‌های قانونی متعددی روبرو خواهد شد و ممکن است برخی از گروه‌هایی که اکنون علیه آن موضع گرفته‌اند، در آینده نیز به مخالفت خود ادامه دهند.

این قانون به طور فوری اجرایی نخواهد شد و تشکیل «هیئت مدل‌های مرزی» نیز تا سال ۲۰۲۶ به تأخیر خواهد افتاد. این مسئله نشان می‌دهد که حتی در صورت تصویب این قانون، فرصت برای اصلاحات و بازنگری‌های بیشتر وجود دارد و احتمالاً تا اجرایی شدن کامل آن، بحث‌ها و مذاکرات فراوانی صورت خواهد گرفت.

با این وجود، SB 1047 نمونه‌ای از تلاشی است که می‌خواهد پیش از وقوع فاجعه، از بروز مشکلات جلوگیری کند. اما این پرسش که آیا این قانون در نهایت به هدف خود خواهد رسید یا نه، همچنان به قوت خود باقی است و نظرات مختلفی در این باره وجود دارد.

در هر صورت، تصمیمی که کالیفرنیا در این زمینه می‌گیرد، می‌تواند تأثیرات گسترده‌ای بر سیاست‌های آینده در حوزه هوش مصنوعی و نحوه تنظیم مقررات آن در سراسر جهان داشته باشد.

برچسب ها :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *