ایلان ماسک و گروه بزرگی از متخصصان و صاحبان کسبوکار، در نامهای سرگشاده که امکان امضای عمومی دارد و تاکنون بیش از ۱۱۸۷ نفر آن را امضا کردهاند، از تمام آزمایشگاههای فعال در زمینه هوش مصنوعی — بهویژه شرکت OpenAI، سازنده چتجیپیتی — خواستهاند که بهمدت شش ماه، آموزش و توسعه سیستمهای هوش مصنوعی را متوقف کنند. آنها هشدار دادهاند که اگر این روند ادامه یابد، هوش مصنوعی به موجودی غیرقابل کنترل تبدیل خواهد شد که حتی سازندگانش نیز نمیتوانند آن را مهار کنند. در این نامه بیسابقه از دولتها نیز درخواست شده تا در صورت لزوم، برای اجرای این توقف موقت وارد عمل شوند.
متن این نامه را که توسط چتجیپیتی ترجمه شده، بدون هیچ ویرایشی منتشر میکنیم؛ زیرا معتقدیم باید علاوه بر نقاط ضعف، قدرت این ابزار پیشرفته نیز سنجیده شود. لازم به ذکر است که از نسخه پیشرفته GPT-4 استفاده نشده و ترجمه براساس نسخه اولیه ارائه شده است.
متن کامل نامه:
ما از تمام آزمایشگاههای هوش مصنوعی درخواست میکنیم که بهمدت دستکم شش ماه، آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.
همانطور که تحقیقات گسترده و حتی اعتراف خود آزمایشگاههای برتر هوش مصنوعی نشان میدهد، سیستمهایی که توانایی رقابت با هوش انسان را دارند، میتوانند خطرات بزرگی برای جامعه و بشریت ایجاد کنند. براساس اصول توافق شده در زمینه هوش مصنوعی، این فناوری پیشرفته میتواند تغییرات بزرگی در تاریخ زندگی روی زمین ایجاد کند و باید با برنامهریزی دقیق، منابع کافی و مدیریت مناسب همراه باشد. متأسفانه اکنون چنین برنامهریلی وجود ندارد و آزمایشگاهها در رقابتی بیوقفه در حال تولید ذهنهای دیجیتالی قدرتمندی هستند که هیچکس — حتی سازندگانشان — قادر به درک، پیشبینی یا کنترل آنها نیست.
هوش مصنوعی امروزی آنقدر پیشرفت کرده که در بسیاری از کارهای عمومی با انسان رقابت میکند. بنابراین باید از خود بپرسیم:
– آیا باید اجازه دهیم ماشینها با انتشار اخبار دروغ و تبلیغات، فضای اطلاعاتی ما را پر کنند؟
– آیا باید همه مشاغل — حتی آنهایی که مفید و ثمربخش هستند — به صورت خودکار انجام شوند؟
– آیا باید هوشی غیرانسانی ایجاد کنیم که روزی از نظر تعداد، هوش و جایگاه از ما پیشی بگیرد، ما را منسوخ کند و جایگزینمان شود؟
– آیا باید خطر از دست دادن کنترل بر تمدن خود را بپذیریم؟
این تصمیمات سرنوشتساز نباید تنها توسط رهبران فناوری و بدون نظارت عمومی گرفته شود. سیستمهای هوشمند و قدرتمند تنها زمانی باید توسعه یابند که مطمئن باشیم اثرات آنها مثبت و خطراتشان قابل مدیریت است. این اطمینان باید با توجه به میزان تأثیر سیستمها، بهطور دقیق بررسی و با افزایش قابلیتهای آنها، بیشتر شود. OpenAI نیز در بیانیهای تأکید کرده است: «ممکن است زمانی برسد که پیش از آموزش سیستمهای آینده، نیاز به بررسی مستقل احساس شود و برای تلاشهای پیشرفتهتر، توافق بر سر محدود کردن سرعت رشد محاسباتی مورد نیاز برای مدلهای جدید ضروری باشد.» ما با این نظر موافقیم و معتقدیم آن زمان، هماکنون است.
بنابراین از تمام آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله و بهمدت دستکم شش ماه، آموزش سیستمهای قدرتمندتر از GPT-4 را متوقف کنند. این توقف باید علنی، قابل بررسی و با مشارکت تمام طرفهای مهم باشد. در صورت عدم اجرای سریع این توقف، دولتها باید وارد عمل شده و تعلیق موقت را اعمال کنند.
آزمایشگاهها و کارشناسان مستقل باید در این فرصت ششماهه، با همکاری یکدیگر پروتکلهای ایمنی برای طراحی و توسعه هوش مصنوعی پیشرفته تدوین کنند. این پروتکلها باید زیر نظر ناظران مستقل اجرا شوند تا اطمینان حاصل شود که سیستمهای تولیدشده کاملاً ایمن و قابل اعتماد هستند. این به معنای توقف کامل توسعه هوش مصنوعی نیست، بلکه به معنای عقبنشینی از مسابقهای خطرناک برای ساخت مدلهایی با قابلیتهای غیرقابل پیشبینی است.
تحقیقات هوش مصنوعی باید بر روی بهبود سیستمهای کنونی متمرکز شود تا آنها را پیشرفتهتر، ایمنتر، شفاف، پایدار، همسو با ارزشهای جامعه و قابل اعتماد کند. علاوه بر این، توسعهدهندگان هوش مصنوعی باید با سیاستگذاران همکاری کنند تا چارچوبهای حکمرانی قدرتمند و سریعی برای این فناوری ایجاد شود.
این چارچوبها باید شامل نهادهای نظارتی معتبر، سیستمهای رهگیری و پیگیری برای هوش مصنوعیهای قدرتمند، روشهایی برای تشخیص محتوای واقعی از ساختگی، مکانیزمهای بازرسی و صدور گواهی، مسئولیتپذیری در قبال آسیبهای ناشی از هوش مصنوعی، حمایت از پژوهشهای ایمنی و نهادهای توانمند برای مقابله با تأثیرات اقتصادی و سیاسی — بهویژه بر دموکراسی — باشد.
بشریت میتواند آیندهای روشن در کنار هوش مصنوعی داشته باشد. ما پس از ساخت سیستمهای هوشمند میتوانیم یک «تابستان هوش مصنوعی» را تجربه کنیم؛ زمانی که از مزایای آن بهره ببریم، سیستمها را برای منافع همگان بهبود دهیم و به جامعه فرصت سازگاری بدهیم. جامعه پیش از این نیز در مواجهه با فناوریهای اثرگذار، توانسته است توسعه آنها را متوقف کند تا از پیامدهای منفی جلوگیری شود. اکنون نیز میتوانیم همین کار را انجام دهیم. بیایید از یک تابستان طولانی هوش مصنوعی لذت ببریم و بدون آمادگی و با نگرانی، به استقبال چالشهای پیشبینینشده نرویم.
Elon Musk and researchers ask for pause on ‘dangerous race’ to improve AI
