مدیر مایکروسافت: اگر هوش مصنوعی خطرناک شود، توسعه آن را متوقف میکنیم
گون آیدین: مدیر مایکروسافت در مصاحبه با بلومبرگ گفته این شرکت توسعه سیستمی را که پتانسیل خارجشدن از کنترل انسانها را داشته باشد، ادامه نخواهد داد.
گون آیدین،«مصطفی سلیمان»، مدیر بخش هوش مصنوعی مایکروسافت، اعلام کرده که اگر توسعه سامانههای پیشرفته هوش مصنوعی به تهدیدی برای بشریتتبدیل شود، این شرکت حاضر است روندتوسعهخود رامتوقفکند. او تأکید کرده هدف نهایی مایکروسافت، ساخت «ابرهوشی» است که کاملاً با منافع انسانی هماهنگ باشد و از کنترل انسانها خارج نشود.
سلیمانبه بلومبرگ گفته است:
«ما به توسعه سیستمی ادامه نخواهیم داد که پتانسیل خارج شدن از کنترل انسانها را داشته باشد.»
او این موضع را بدیهی و انسانی توصیف کرده، اما درعینحال اشاره کرده که چنین نگاهی هنوز در صنعت هوش مصنوعی موضعی نسبتاً جدید محسوب میشود.
مسیر متفاوت مایکروسافت و OpenAI در توسعه هوش مصنوعی
مصطفی سلیمان اوایل سال گذشته و زمانی به مایکروسافت پیوست که این شرکت مالکیت فکری و بخش عمدهای از تیم استارتاپ Inflection AI را خریداری کرد. سلیمان یکی از بنیانگذاران آن بود. مایکروسافت که پیش از این برای اغلب ابزارهای هوش مصنوعی خود بهOpenAIمتکی بود، حالا مأموریت توسعه محصولات هوش مصنوعی خود را به سلیمان سپرده است.

او در ادامه توضیح داده که OpenAI اکنون با شرکتهایی مانندسافتبنکواوراکلبرای ساخت دیتاسنترهای جدید قرارداد دارد و حتی تعداد آنها بیشتر از مواردی است که مایکروسافت قرار بوده بسازد. سلیمان میگوید در مقابل این تغییرات، مایکروسافت حالا این حق را به دست آورده که مسیرتوسعه هوش مصنوعی اختصاصی خودرا دنبال کند. او توضیح میدهد:
«ما در 18 ماه گذشته همچنان یک توسعهدهنده عمومی هوش مصنوعی بودهایم، اکنون میتوانیم روی روشها و فناوریهایی کار کنیم که در نهایت پتانسیل قدم گذاشتن به آنسوی عملکرد انسانی در تمام وظایف را دارند.»
سلیمان ماه گذشته در پستی وبلاگی،برنامه مایکروسافتبرای ورود جدی به حوزه ابرهوش مصنوعی را اعلام کرد. در آن گزارش گفته شده بود که مایکروسافت معتقد است چنین سیستمهایی تنها در صورتی موفق خواهند بود که از ابتدا برای خدمت به انسان طراحی شوند. بسیاری از بازیگران بزرگ صنعت، از جمله OpenAI و آنتروپیک، نیز اهداف مشابهی را مطرح کردهاند، اما سلیمان معتقد است رویکرد مایکروسافت ویژگیهای متمایز خود را دارد.