آزمایشات بزرگ هوش مصنوعی را متوقف کنید

ایلان ماسک خواستار توقف هوش مصنوعی پیشرفته تر از GPT_4 به مدت 6 ماه شد

ایلان ماسک و گروه بزرگی از متخصصان و صاحبان کسب‌وکار، در نامه‌ای سرگشاده که امکان امضای عمومی دارد و تاکنون بیش از ۱۱۸۷ نفر آن را امضا کرده‌اند، از تمام آزمایشگاه‌های فعال در زمینه هوش مصنوعی — به‌ویژه شرکت OpenAI، سازنده چت‌جی‌پی‌تی — خواسته‌اند که به‌مدت شش ماه، آموزش و توسعه سیستم‌های هوش مصنوعی را متوقف کنند. آن‌ها هشدار داده‌اند که اگر این روند ادامه یابد، هوش مصنوعی به موجودی غیرقابل کنترل تبدیل خواهد شد که حتی سازندگانش نیز نمی‌توانند آن را مهار کنند. در این نامه بی‌سابقه از دولت‌ها نیز درخواست شده تا در صورت لزوم، برای اجرای این توقف موقت وارد عمل شوند.

متن این نامه را که توسط چت‌جی‌پی‌تی ترجمه شده، بدون هیچ ویرایشی منتشر می‌کنیم؛ زیرا معتقدیم باید علاوه بر نقاط ضعف، قدرت این ابزار پیشرفته نیز سنجیده شود. لازم به ذکر است که از نسخه پیشرفته GPT-4 استفاده نشده و ترجمه براساس نسخه اولیه ارائه شده است.

متن کامل نامه:

ما از تمام آزمایشگاه‌های هوش مصنوعی درخواست می‌کنیم که به‌مدت دست‌کم شش ماه، آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

همان‌طور که تحقیقات گسترده و حتی اعتراف خود آزمایشگاه‌های برتر هوش مصنوعی نشان می‌دهد، سیستم‌هایی که توانایی رقابت با هوش انسان را دارند، می‌توانند خطرات بزرگی برای جامعه و بشریت ایجاد کنند. براساس اصول توافق شده در زمینه هوش مصنوعی، این فناوری پیشرفته می‌تواند تغییرات بزرگی در تاریخ زندگی روی زمین ایجاد کند و باید با برنامه‌ریزی دقیق، منابع کافی و مدیریت مناسب همراه باشد. متأسفانه اکنون چنین برنامه‌ریلی وجود ندارد و آزمایشگاه‌ها در رقابتی بی‌وقفه در حال تولید ذهن‌های دیجیتالی قدرتمندی هستند که هیچ‌کس — حتی سازندگانشان — قادر به درک، پیش‌بینی یا کنترل آن‌ها نیست.

هوش مصنوعی امروزی آن‌قدر پیشرفت کرده که در بسیاری از کارهای عمومی با انسان رقابت می‌کند. بنابراین باید از خود بپرسیم:
– آیا باید اجازه دهیم ماشین‌ها با انتشار اخبار دروغ و تبلیغات، فضای اطلاعاتی ما را پر کنند؟
– آیا باید همه مشاغل — حتی آن‌هایی که مفید و ثمربخش هستند — به صورت خودکار انجام شوند؟
– آیا باید هوشی غیرانسانی ایجاد کنیم که روزی از نظر تعداد، هوش و جایگاه از ما پیشی بگیرد، ما را منسوخ کند و جایگزینمان شود؟
– آیا باید خطر از دست دادن کنترل بر تمدن خود را بپذیریم؟

این تصمیمات سرنوشت‌ساز نباید تنها توسط رهبران فناوری و بدون نظارت عمومی گرفته شود. سیستم‌های هوشمند و قدرتمند تنها زمانی باید توسعه یابند که مطمئن باشیم اثرات آن‌ها مثبت و خطراتشان قابل مدیریت است. این اطمینان باید با توجه به میزان تأثیر سیستم‌ها، به‌طور دقیق بررسی و با افزایش قابلیت‌های آن‌ها، بیشتر شود. OpenAI نیز در بیانیه‌ای تأکید کرده است: «ممکن است زمانی برسد که پیش از آموزش سیستم‌های آینده، نیاز به بررسی مستقل احساس شود و برای تلاش‌های پیشرفته‌تر، توافق بر سر محدود کردن سرعت رشد محاسباتی مورد نیاز برای مدل‌های جدید ضروری باشد.» ما با این نظر موافقیم و معتقدیم آن زمان، هم‌اکنون است.

بنابراین از تمام آزمایشگاه‌های هوش مصنوعی می‌خواهیم که بلافاصله و به‌مدت دست‌کم شش ماه، آموزش سیستم‌های قدرتمندتر از GPT-4 را متوقف کنند. این توقف باید علنی، قابل بررسی و با مشارکت تمام طرف‌های مهم باشد. در صورت عدم اجرای سریع این توقف، دولت‌ها باید وارد عمل شده و تعلیق موقت را اعمال کنند.

آزمایشگاه‌ها و کارشناسان مستقل باید در این فرصت شش‌ماهه، با همکاری یکدیگر پروتکل‌های ایمنی برای طراحی و توسعه هوش مصنوعی پیشرفته تدوین کنند. این پروتکل‌ها باید زیر نظر ناظران مستقل اجرا شوند تا اطمینان حاصل شود که سیستم‌های تولیدشده کاملاً ایمن و قابل اعتماد هستند. این به معنای توقف کامل توسعه هوش مصنوعی نیست، بلکه به معنای عقب‌نشینی از مسابقه‌ای خطرناک برای ساخت مدل‌هایی با قابلیت‌های غیرقابل پیش‌بینی است.

تحقیقات هوش مصنوعی باید بر روی بهبود سیستم‌های کنونی متمرکز شود تا آن‌ها را پیشرفته‌تر، ایمن‌تر، شفاف، پایدار، همسو با ارزش‌های جامعه و قابل اعتماد کند. علاوه بر این، توسعه‌دهندگان هوش مصنوعی باید با سیاست‌گذاران همکاری کنند تا چارچوب‌های حکمرانی قدرتمند و سریعی برای این فناوری ایجاد شود.

این چارچوب‌ها باید شامل نهادهای نظارتی معتبر، سیستم‌های رهگیری و پیگیری برای هوش مصنوعی‌های قدرتمند، روش‌هایی برای تشخیص محتوای واقعی از ساختگی، مکانیزم‌های بازرسی و صدور گواهی، مسئولیت‌پذیری در قبال آسیب‌های ناشی از هوش مصنوعی، حمایت از پژوهش‌های ایمنی و نهادهای توانمند برای مقابله با تأثیرات اقتصادی و سیاسی — به‌ویژه بر دموکراسی — باشد.

بشریت می‌تواند آینده‌ای روشن در کنار هوش مصنوعی داشته باشد. ما پس از ساخت سیستم‌های هوشمند می‌توانیم یک «تابستان هوش مصنوعی» را تجربه کنیم؛ زمانی که از مزایای آن بهره ببریم، سیستم‌ها را برای منافع همگان بهبود دهیم و به جامعه فرصت سازگاری بدهیم. جامعه پیش از این نیز در مواجهه با فناوری‌های اثرگذار، توانسته است توسعه آن‌ها را متوقف کند تا از پیامدهای منفی جلوگیری شود. اکنون نیز می‌توانیم همین کار را انجام دهیم. بیایید از یک تابستان طولانی هوش مصنوعی لذت ببریم و بدون آمادگی و با نگرانی، به استقبال چالش‌های پیش‌بینینشده نرویم.

Elon Musk and researchers ask for pause on ‘dangerous race’ to improve AI

اگه حال کردی این پست رو با دوستات به اشتراک بذار:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *