بخش عمدهای از قانونگذاریها به ویژه در حوزه فناوری به نحوی است که باید بهطور مستقیم از بروز مشکلات جدی جلوگیری کند. لایحهای که اخیراً به نام SB 1047 در کالیفرنیا مطرح شده، تلاشی است در همین راستا؛ یعنی جلوگیری از بروز فجایعی که ممکن است با توسعهی مدلهای بزرگ هوش مصنوعی (AI) به وقوع بپیوندد. این لایحه با وجود اهداف نیکو، باعث بحثها و اختلاف نظرهای گستردهای در صنعت فناوری، به ویژه در سیلیکون ولی، شده است. در این مقاله، به بررسی جزئیات این لایحه، دیدگاههای موافقان و مخالفان آن، و تأثیرات احتمالی آن بر صنعت فناوری میپردازیم.
هدف SB 1047 چیست؟
لایحه SB 1047 با هدف جلوگیری از سوءاستفاده از مدلهای بزرگ هوش مصنوعی که ممکن است به «آسیبهای بحرانی» منجر شود، تدوین شده است. برای مثال، یکی از نگرانیهای اصلی قانونگذاران این است که یک بازیگر بد بتواند از این مدلها برای ایجاد سلاحهای مرگبار یا انجام حملات سایبری عظیم استفاده کند. در این لایحه، توسعهدهندگان مدلهای هوش مصنوعی مسئول اجرای پروتکلهای ایمنی مناسب برای جلوگیری از چنین نتایجی شناخته شدهاند.
چه مدلها و شرکتهایی تحت این قانون قرار میگیرند؟
این قانون تنها به مدلهای هوش مصنوعی بسیار بزرگ و پیچیدهای که هزینهای بالغ بر 100 میلیون دلار برای آموزش آنها صرف شده و در طول آموزش از 10^26 فلپس (FLOPS) استفاده کردهاند، اعمال میشود. این سطح از توان محاسباتی بسیار بالاست و تقریباً تمامی شرکتهای بزرگ فناوری مانند OpenAI، گوگل و مایکروسافت به زودی تحت پوشش این قانون قرار خواهند گرفت.
در مورد مدلهای منبعباز و مشتقات آنها، مسئولیت اصلی با توسعهدهنده اصلی است مگر اینکه توسعهدهنده دیگری بیش از 10 میلیون دلار برای ایجاد یک مدل مشتق از مدل اصلی هزینه کند.
سازوکار اجرایی این قانون چگونه است؟
برای اجرای این قانون، یک نهاد جدید با نام «هیئت مدلهای مرزی» در کالیفرنیا تأسیس خواهد شد که وظیفه نظارت بر رعایت این قانون را بر عهده دارد. تمامی مدلهای هوش مصنوعی جدید که شرایط قانون SB 1047 را دارند، باید به طور جداگانه با یک نسخه مکتوب از پروتکل ایمنی خود تأیید شوند.
این هیئت نه نفره شامل نمایندگانی از صنعت هوش مصنوعی، جامعه منبعباز و دانشگاهها خواهد بود که توسط فرماندار و مجلس کالیفرنیا منصوب میشوند. این هیئت مشاورههایی به دادستان کل کالیفرنیا درباره نقض احتمالی این قانون ارائه میدهد و راهنماییهایی برای توسعهدهندگان مدلهای هوش مصنوعی درباره شیوههای ایمنی پیشنهاد میکند.
مدیر ارشد فناوری هر شرکت باید هر سال یک گزارش به هیئت ارائه کند که در آن به ارزیابی خطرات احتمالی مدل هوش مصنوعی، اثربخشی پروتکل ایمنی و شرح اقدامات شرکت برای رعایت این قانون پرداخته میشود. در صورت وقوع یک «حادثه ایمنی هوش مصنوعی»، توسعهدهنده باید ظرف 72 ساعت از اطلاع از وقوع حادثه آن را به هیئت گزارش کند.
در صورتی که پروتکلهای ایمنی توسعهدهنده ناکافی تشخیص داده شود، SB 1047 به دادستان کل کالیفرنیا اجازه میدهد که دستور توقف فعالیت یا آموزش مدل را صادر کند. اگر مدل هوش مصنوعی واقعاً در یک رویداد فاجعهبار مورد استفاده قرار گیرد، دادستان کل کالیفرنیا میتواند از شرکت شکایت کند و جریمههایی که میتواند به 10 میلیون دلار برای اولین تخلف و 30 میلیون دلار برای تخلفات بعدی برسد، اعمال کند.
این قانون همچنین شامل حمایتهای ویژهای برای افشاگران است؛ یعنی افرادی که تلاش میکنند اطلاعاتی درباره یک مدل هوش مصنوعی ناامن را به دادستان کل کالیفرنیا افشا کنند.
دیدگاه موافقان چیست؟
سناتور اسکات وینر از کالیفرنیا که این لایحه را نویسندگی کرده است، معتقد است که SB 1047 تلاشی است برای یادگیری از شکستهای سیاستگذاریهای قبلی در حوزههایی مانند رسانههای اجتماعی و حفظ حریم خصوصی دادهها و حفاظت از شهروندان قبل از اینکه دیر شود. او به تاریخچهای اشاره میکند که در آن اغلب پس از وقوع آسیبها، به جای پیشگیری از آنها، دست به واکنشهای دیرهنگام میزنیم.
حامیان این لایحه، از جمله پژوهشگران برجسته هوش مصنوعی مانند جفری هینتون و یوشوا بنگیو، معتقدند که این قانون میتواند از وقوع سناریوهای فاجعهباری که ممکن است با توسعه بیمحابای هوش مصنوعی به وجود آیند، جلوگیری کند. این پژوهشگران بخشی از گروهی هستند که به «دومرهای هوش مصنوعی» مشهور شدهاند؛ یعنی افرادی که نگران آیندهی تاریکی هستند که ممکن است فناوری هوش مصنوعی به بار آورد.
دیدگاه مخالفان چیست؟
اما SB 1047 مخالفان زیادی نیز دارد. از جمله آنها شرکتهای بزرگ فناوری، گروههای تحقیقاتی و سرمایهگذاران سیلیکون ولی هستند. از جمله مخالفان برجسته این لایحه، مارک آندریسن، یکی از بنیانگذاران شرکت سرمایهگذاری a16z، است که معتقد است این قانون میتواند اثرات منفی بر استارتاپها داشته باشد، چرا که سطح بالایی از هزینهها را بر آنها تحمیل میکند و ممکن است نوآوری در حوزه هوش مصنوعی را در نطفه خفه کند.
فی-فی لی، که به عنوان «مادرخوانده هوش مصنوعی» شناخته میشود و از پژوهشگران برجسته دانشگاه استنفورد است، در مقالهای که در اوایل آگوست منتشر کرد، نسبت به این قانون ابراز نگرانی کرد و آن را برای اکوسیستم نوپای هوش مصنوعی مضر دانست. او معتقد است که این قانون میتواند باعث کاهش نوآوری شود و تاکید کرد که نباید با نگرانیهای مفرط درباره خطرات هوش مصنوعی، رشد و توسعه این فناوری را محدود کرد.
یکی دیگر از انتقادهای جدی به این لایحه از سوی توسعهدهندگان مدلهای منبعباز است. اندرو نگ، پژوهشگر برجسته هوش مصنوعی و استاد دانشگاه استنفورد، این لایحه را «حملهای به منبعباز» توصیف کرده و معتقد است که این قانون میتواند خطرات بیشتری برای توسعهدهندگان این مدلها به همراه داشته باشد، زیرا مدلهای منبعباز به راحتی قابل تغییر و استفاده در اهداف مخرب هستند.
آینده SB 1047 چیست؟
در حال حاضر، SB 1047 روی میز فرماندار کالیفرنیا، گاوین نیوسام، قرار دارد و او باید تا پایان آگوست تصمیم بگیرد که آیا این لایحه را به قانون تبدیل کند یا نه. اگر این قانون تصویب شود، احتمالاً با چالشهای قانونی متعددی روبرو خواهد شد و ممکن است برخی از گروههایی که اکنون علیه آن موضع گرفتهاند، در آینده نیز به مخالفت خود ادامه دهند.
این قانون به طور فوری اجرایی نخواهد شد و تشکیل «هیئت مدلهای مرزی» نیز تا سال 2026 به تأخیر خواهد افتاد. این مسئله نشان میدهد که حتی در صورت تصویب این قانون، فرصت برای اصلاحات و بازنگریهای بیشتر وجود دارد و احتمالاً تا اجرایی شدن کامل آن، بحثها و مذاکرات فراوانی صورت خواهد گرفت.
با این وجود، SB 1047 نمونهای از تلاشی است که میخواهد پیش از وقوع فاجعه، از بروز مشکلات جلوگیری کند. اما این پرسش که آیا این قانون در نهایت به هدف خود خواهد رسید یا نه، همچنان به قوت خود باقی است و نظرات مختلفی در این باره وجود دارد.
در هر صورت، تصمیمی که کالیفرنیا در این زمینه میگیرد، میتواند تأثیرات گستردهای بر سیاستهای آینده در حوزه هوش مصنوعی و نحوه تنظیم مقررات آن در سراسر جهان داشته باشد.
دیدگاهتان را بنویسید