مرجع متخصصين ايران openai

OpenAI؛‌ شركت مرموزي كه مي‌خواهد زودتر از همه به هوش مصنوعي انسان‌گونه برسد

يك‌شنبه ۷ اسفند ۱۴۰۱ - ۲۱:۳۰
مطالعه 21 دقيقه
اين‌روزها همه OpenAI را با چت‌بات ChatGPT مي‌شناسند؛ اما اين شركت مرموز با پروژه‌هاي مخفي خود سعي دارد زودتر از ديگران به هوش مصنوعي انسان‌گونه برسد.
تبليغات

در تقاطع خيابان هجدهم و فولسوم در سان‌فرانسيسكو، دفتر OpenAI شبيه انباري مرموز به‌انديشه متخصصين مي‌رسد. اين ساختمان قديمي با آن نماي بي‌روح خاكستري و پنجره‌هاي دودي با كركره‌هاي اكثرا پايين كشيده، همچون ورودي وزارت جادوي دنياي هري پاتر به انديشه متخصصين مي‌رسد كه به چشم «مشنگ‌ها» چيزي جز باجه‌تلفني بي‌استفاده‌اي نيست كه افراد عادي را از كنجكاوي درباره اتفاقات تاريخ‌ساز و حيرت‌انگيزي دور نگه مي‌دارد كه آن‌سوي ديوارهايش در جريان است. دورتادور اين ساختمان نيز حروف قرمز رنگ‌ورورفته «PIONEER BUILDING» به‌چشم مي‌خورد كه از مالك قبلي آن، كارخانه كاميون‌سازي پايونير، به‌جا مانده است؛ اما هيچ اثر و لوگويي از مالك فعلي آن نيست.

احتمالاً تا حالا ديگر درباره Dall-E يا چت‌بات ChatGPT يا «بينگ جديد» مايكروسافت چيزهايي شنيده‌ايد؛ بااين‌حال، بعيد مي‌دانم درباره‌ي شركت توسعه‌‌دهنده هوش مصنوعي به‌كار رفته در اين پلتفرم‌ها كه اين روزها با قابليت‌هاي خود متخصصان اينترنتي را شگفت‌زده كرده است، چيز زيادي بدانيد. اينكه اين شركت تأثيرگذار تا اين حد ناشناخته است، از كم‌كاري من و شما نيست؛ بلكه OpenAI تعمداً مرموز و پنهان‌كار است و تعداد افرادي كه در جريان پروژه‌هاي آن قرار دارند، به‌طرز مشكوكي انگشت‌شمارند.

كارمندان OpenAI به‌رسم هرسال دورهم جمع مي‌شوند تا درباره‌ي زماني شرط‌بندي كنند كه رؤياي بشر براي دستيابي به «هوش مصنوعي قوي» به حقيقت خواهد پيوست. هوش مصنوعي قوي/عمومي (Artificial general intelligence) يا AGI هماني است كه در فيلم‌هاي علمي‌تخيلي نظير ترميناتور و Her مي‌بينيم: سيستم داناي كل و خودآگاهي كه در عين داشتن هوش انسان‌گونه و قابليت استدلال و تفكر منطقي، توانايي‌هاي فرابشري دارد (و معمولا منجر به نابودي زمين و نسل بشر مي‌شود).

مرجع متخصصين ايران ساختمان OpenAI در سان‌فرانسيسكو
ساختمان OpenAI هيچ نشاني از اتفاقات هيجان‌انگيزي ندارد كه پشت ديوارهاي‌ آن مي‌افتد

البته شرط‌بندي متخصصان OpenAI نوعي سرگرمي است و تخمين‌هاي آن‌ها اختلاف زيادي با يكديگر دارد. بااين‌حال، در حوزه‌اي كه هنوز امكان دستيابي به سيستم‌هاي خودمختار و خودآگاه موردمباحثه است، نيمي از متخصصان OpenAI واقعاً بر اين باورند كه دستيابي به AGI احتمالاً تا ۱۳ سال آينده صورت خواهد گرفت.

نيمي از متخصصان OpenAI معتقدند تا ۱۳ سال آينده به هوش مصنوعي قوي دست پيدا خواهند كرد

درواقع، مأموريت OpenAI اين است كه اولين شركتي باشد كه به هوش مصنوعي قوي دست پيدا مي‌كند؛ اما نه براي تسلط كامل بر دنيا و به‌زانودرآوردن جمعيت جهان، بلكه براي اطمينان از اينكه اين تكنولوژي بسيار پرخطر به‌طور ايمن توسعه داده شود و توزيع مزاياي آن به‌طور مساوي در جهان صورت گيرد (دست‌كم اين چيزي است كه خودشان ادعا مي‌كنند!)

دانشمندان اين حوزه عموماً بر اين باورند كه اگر توسعه AGI مسيري با كمترين مقاومت را دنبال كند؛ يعني نهادي نباشد تا براي آن قوانين سخت‌گيرانه وضع كند، به‌راحتي مي‌تواند از كنترل خارج شود. اين ترس و نگراني با نگاه به وضعيت هوش مصنوعي ضعيف، يعني همين مدل پردردسري كه امروزه به‌شكل الگوريتم‌هاي شبكه‌هاي اجتماعي دورمان را احاطه كرده، توجيه‌پذير است.

اگر سير تكامل الگوريتم‌ها را به AGI تعميم دهيم، مي‌توان مطمئن بود كه در نبود هدايت و مديريت «چوپاني» خيرخواه، فرجام اين تكنولوژي فاجعه‌بار خواهد بود. درست حدس زديد، شركت OpenAI مي‌خواهد نقش اين چوپان خيرخواه را براي هدايت توسعه‌ي هوش مصنوعي قوي به‌سمت مسيري درست و امن بازي كند. در شرايطي كه حوزه‌ي تكنولوژي هوش مصنوعي تحت‌كنترل غول‌هاي دنياي فناوري نظير گوگل و مايكروسافت است، OpenAI به‌عنوان شركت غيرانتفاعي تأسيس شد تا دستاوردهاي آن براي «همه» ارزش ايجاد كند، نه براي سهام‌داران.

در منشور OpenAI آمده است كه دستيابي به هوش مصنوعي قوي ازطريق روش‌هاي امن چنان مهم است كه اگر سازمان ديگري زودتر به اين هدف نزديك شد، اين شركت دست از رقابت برمي‌دارد و درعوض با آن سازمان همكاري مي‌كند. همين موضع‌گيري منحصر‌به‌فرد و خيرخواهانه توجه رسانه‌ها و سرمايه‌گذاران را جلب كرد؛ به‌طوري‌كه در سال ۲۰۱۹، سرمايه‌گذاري يك‌ميليارد دلاري مايكروسافت را به‌همراه داشت و حالا اين شركت با ۱۰ ميليارد دلار سرمايه‌گذاري ديگر، ۴۹ درصد سهام OpenAI را در اختيار دارد.

و همان‌طوركه خودتان احتمالا از سير تحولات اخير حدس زديد، واقعيت ماجرا طور ديگري رقم خورد.

OpenAI چگونه شكل گرفت؟

حوزه‌ي هوش مصنوعي از همان ابتدا در تلاش براي درك هوش انساني و يافتن روش‌هايي براي تقليد از آن بوده است. در سال ۱۹۵۰، آلن تورينگ، رياضي‌دان و دانشمند كامپيوتر مشهور انگليسي، مقاله‌اي نوشت كه با سؤال جنجالي «آيا ماشين‌ها مي‌توانند فكر كنند؟» شروع مي‌شد. شش سال بعد، گروهي از دانشمندان كه مجذوب اين ايده شده بودند، در كالج دارتموث گردهم آمدند تا چارچوب و اصول رشته هوش مصنوعي را تعيين كنند.

اشكال اين‌‌‌‌جا است كه AGI از آن سال تاكنون، همچنان موضوع مبهمي باقي مانده است. هيچ‌كس نمي‌تواند شكل احتمالي آن يا حداقل كاري را توصيف كند كه از عهده‌اش برمي‌آيد. براي مثال، هنوز معلوم نيست كه قرار است فقط يك مدل هوش مصنوعي قوي داشته باشيم يا بيشتر و اينكه شايد هوش انساني تنها جزئي از كل باشد. افزون‌براين، انديشه متخصصينات‌ها درباره وظايف AGI نيز متفاوت است.

از ديد رمانتيك، هوش ماشيني بي‌نياز از خواب و رها از ناكارآمدي تعاملات انساني، مي‌تواند اشكالات پيچيده‌اي همچون تغييرات اقليمي و فقر و گرسنگي جهاني را حل كند. اكثر دانشمندان اين حوزه معتقدند دستيابي به چنين قابليت‌هاي پيشرفته‌اي ده‌ها سال يا حتي قرن‌ها طول مي‌كشد؛ البته اگر اصلاً توسعه چنين چيزي ممكن باشد. بسياري نيز نگران‌اند كه تلاش بيش‌از‌حد براي پيگيري اين هدف ممكن است به عواقب جبران‌ناپذيري منجر شود.

در دهه‌هاي ۱۹۷۰ تا ۱۹۹۰، حوزه هوش مصنوعي سرشار از وعده‌هاي بزرگ، اما اجراي نااميدكننده بود. تا اينكه بودجه شركت‌ها ته كشيد و زخم‌هاي عميقي بر نسلي از پژوهشگراني بر جاي گذاشت كه تمام وقت خود را پاي اين پروژه گذاشته بودند. در اين فضا بود كه OpenAI در ۱۱ دسامبر ۲۰۱۵ با هياهوي رسانه‌اي به وادي هوش مصنوعي قدم گذاشت.

البته OpenAI اولين شركتي نبود كه قصد خود را براي دستيابي به AGI اعلام مي‌كرد؛ چراكه شركت DeepMind كه در سال ۲۰۱۴ گوگل آن را ازآنِ خود كرد، پنج سال زودتر از شكل‌گيري OpenAI، وعده دستيابي به AGI را داده بود. گفتني است اين شركت چند ماه پيش ادعا كرد در آستانه دستيابي به AGI قرار دارد.

اشكال AGI اين است كه هيچ‌كس نمي‌داند قرار است چه شكلي باشد

اما داستان OpenAI فرق داشت؛ زيرا با سرمايه‌گذاري هنگفت يك‌ميليارددلاري افراد نام‌آشنايي چون ايلان ماسك و سم آلتمن (رييس سابق Y Combinator) و پيتر تيل، هم‌بنيان‌گذار پي‌پال تأسيس شد. اين فهرست پرستاره از سرمايه‌گذاران دركنار اسامي به‌ همين اندازه مشهور متخصصانش،‌ هياهوي رسانه‌اي بزرگي به‌راه انداخت. گرگ براكمن كه زيرساخت‌هاي متخصص شركت فين‌تك Stripe زيرانديشه متخصصين او بود، مدير ارشد فناوري OpenAI شد؛ ايليا سوتسكور كه زيرانديشه متخصصين جفري هينتون، پيش‌گام حوزه هوش مصنوعي، تحصيل كرده بود، مدير تحقيقات شد؛ و هفت پژوهشگر تازه‌فارغ‌التحصيل‌شده از دانشگاه‌هاي برتر يا دست‌چين‌شده از شركت‌هاي ديگر نيز تيم متخصص اصلي را تشكيل دادند.

ماسك فوريه ۲۰۱۸ اعلام كرد كه به‌دليل اختلاف‌انديشه متخصصين بر سر اهداف و برنامه‌هاي OpenAI از اين شركت جدا شده و حالا نه در اين شركت سهام دارد و نه عضو هيئت‌مديره است و فقط گاهي درباره‌ي خطرات هوش مصنوعي براي تمدن بشر توييت مي‌كند. يك ماه بعد، آلتمن از رياست شتاب‌دهنده Y Combinator كناره‌گيري كرد تا مديرعامل OpenAI شود. بدين‌ترتيب، اعضاي هيئت‌مديره OpenAI حالا متشكل از گرگ براكمن (رييس و مدير هيئت‌مديره)، ايليا سوتسكور (دانشمند ارشد) و سم آلتمن (مديرعامل)، به‌همراه افرادي كه متخصص شركت نيستند، از‌جمله ادم دي‌آنجلو، ريد هافمن، ويل هرد، تاشا مك‌كالي، هلن تونر و شيون زيليس است. در ليست سرمايه‌گذاران نيز به‌جز مايكروسافت، نام موسسه خيريه ريد هافمن و شركت سرمايه‌گذاري كسلا ونچرز به چشم مي‌خورد.

اما شايد چيزي كه بيشتر از تيم پرستاره‌ي سرمايه‌‌گذاران و اعضا، نام OpenAI را در زمان تاسيس بر سر زبان‌ها انداخت، وضعيت غيرانتفاعي آن بود (كه البته حالا به سود محدود تغيير ماهيت داده؛ به اين معني كه سرمايه‌گذاران فقط مي‌توانند تا ۱۰۰ برابر سرمايه‌‌ي اوليه‌ي خود را دريافت كنند). در اطلاعيه‌ي تأسيس اين شركت آمده است:

وجود مؤسسه‌‌ي پژوهشي پيشرويي كه بتواند دستيابي به نتايج مفيد براي همه را به منافع شخصي خود ترجيح دهد، مهم است. ما پژوهشگران را تشويق مي‌كنيم تا پروژه‌هاي خود را چه به‌صورت مقاله يا پست وبلاگ يا كد دردسترس عموم قرار دهند و پتنت‌هاي ما (در صورت وجود) با كل دنيا به اشتراك گذاشته خواهند شد.

OpenAI با اين اعلاميه خود را در تقابل مستقيم با آزمايشگاه‌هاي ديگر ازجمله DeepMind قرار داد و تلويحاً گفت هيچ‌كدام‌ از‌ آن‌ها نمي‌توانند در خدمت بشر باشند؛ چون دامنه‌ي فعاليت‌هاي‌ آن‌ها را منافع تجاري تعيين و محدود مي‌كند.

مرجع متخصصين ايران تيم مديريتي OpenAI از راست: سم آلتمن، ايليا سوتسكور و گرگ براكمن
تيم مديريتي OpenAI از راست: سم آلتمن، ايليا سوتسكور و گرگ براكمن

در فضايي كه پژوهش‌ها به‌سرعت به‌سمت خصوصي‌‌شدن و تمركز بر سودهاي مالي كوتاه‌مدت پيش مي‌رفت، OpenAI راه جديدي براي تأمين بودجه‌‌ي خود ارائه كرد. تعداد اعضاي تيم نيز كم بود و همه همديگر را از نزديك مي‌شناختند. ساختار مديريتي نيز صميمي و مسطح بود و هركسي مي‌توانست به‌راحتي ايده‌هاي خود را مطرح و در مباحثه‌ها شركت كند. اين‌طور كه مي‌گويند، ماسك نقش پررنگي در شكل‌دادن به اسطوره‌ي جمعي اين شركت ايفا كرد. پيتر عبيل، استاد دانشگاه بركلي كه زماني در OpenAI كار مي‌كرد، حرف‌هاي ماسك را اين‌طور به‌ياد مي‌آورد:

طوري كه او ماجرا را براي من تشريح كرد، اين بود كه «ببين، من مي‌فهمم كه احتمالاً خيلي مانده تا به AGI برسيم؛ اما اگر اين‌طور نبود چه؟ شايد حتي ۱ درصد يا ۰/۱ درصد احتمال اين باشد كه پنج تا ده سال ديگر محقق شود. بهتر نيست راجع به آن با دقت و احتياط زياد فكر كنيم؟» اين حرفش مرا خيلي تحت‌تأثير قرار داد.

ساختار سازماني غيررسمي OpenAI باعث ابهام و سردرگمي درباره‌ي اهداف و مسير اين شركت نيز شده بود. در مي ۲۰۱۶، داريو آمودي كه آن زمان پژوهشگر گوگل بود، با آلتمن و براكمن ملاقات كرد و به آن‌ها گفت هيچ‌كس از كار آن‌ها سر در نمي‌آورد. مقاله‌اي در New Yorker در سال ۲۰۱۶ با اين ليد كه «آيا آلتمن آمده تا اشكالات دنيا را حل كند يا بر سيليكون ولي حاكم شود»، نشان داد كه حتي خود اعضاي تيم هم نمي‌دانند مشغول انجام چه كاري هستند. براكمن در پاسخ به سؤال آمودي درباره هدف OpenAI گفته بود:‌ «هدف ما در‌حال‌حاضر اين است كه بهترين كاري را كه مي‌توان انجام داد،‌ انجام دهيم؛ البته اين هدف كمي گنگ است.»

باوجوداين، آمودي چند ماه بعد به اين تيم پيوست. خواهرش، دنيلا، پيش‌تر با براكمن كار كرده بود و آمودي بسياري از اعضاي OpenAI را مي‌شناخت. بعد از دو سال و به‌درخواست براكمن، دنيلا نيز به آن‌ها ملحق شد. البته درحال‌حاضر، هر دو از تيم OpenAI جدا شده‌اند. براكمن در گفت‌وگو با خبرنگار MIT گفت: «فكرش را بكن… ما كارمان را با هيچ شروع كرديم. ما فقط اين فكر ايدآل را در سر داشتيم كه مي‌خواستيم AGI در مسير درستي توسعه پيدا كند.»

۱۵ ماه پس از تأسيس OpenAI، مديريت به اين نتيجه رسيد كه ديگر وقت آن فرارسيده است كه اهداف و پروژه‌هاي اين شركت شكل و شمايل منسجم‌تر و متمركزتري به خود بگيرند. اين‌چنين شد كه براكمن و چند نفر ديگر از اعضاي اصلي شروع به تنظيم سند داخلي شركت كردند كه قرار بود مسير رسيدن به هوش مصنوعي قوي را برايشان روشن كند؛ اما آن‌ها به‌سرعت متوجه اشكال بسيار بزرگي شدند: شركت نمي‌توانست با وضعيت غيرانتفاعي به كار خود ادامه دهد.

به‌گفته براكمن، اگر OpenAI مي‌خواست در اين عرصه حرفي براي گفتن داشته باشد، به حجم زيادي از سرمايه‌گذاري نياز داشت كه آن را در سطح رقابت با شركت‌هاي ديگر قرار دهد. بدين‌ترتيب، مارس ۲۰۱۹، OpenAI وضعيت كاملاً غيرانتفاعي خود را كنار گذاشت و به شركتي سودمحور، اما با محدوديت بازده سرمايه‌‌ي ۱۰۰ برابري تبديل شد. كمي بعد، مايكروسافت يك‌ ميليارد دلار در آن سرمايه‌گذاري كرد و قرار شد با همكاري يكديگر، براي سرويس رايانش ابري آژور تكنولوژي‌‌هاي هوش مصنوعي توسعه دهند.

همان‌طوركه پيش‌بيني‌شدني بود،‌ اين اقدام موجي از اتهامات مبني‌بر برگشت OpenAI از حرف خود را برانگيخت. متخصصي در Hacker News بلافاصله پس از اعلام اين خبر پرسيد «اصلاً مگر محدوديت بازگشت ۱۰۰ برابري سرمايه، محدوديت محسوب مي‌شود؟» و درادامه گفت سرمايه‌گذاران اوليه گوگل، تنها حدود ۲۰ برابر سرمايه‌‌ي خود را از خريد سهام اين شركت دريافت كردند. اين متخصص افزود:

شما روي اين شرط بسته‌ايد كه ساختار سازماني شركتتان مي‌تواند بازده سرمايه‌‌اي بسيار بزرگ‌تر از گوگل داشته باشد؛ اما درعين‌حال نمي‌خواهيد قدرت بي‌رويه در دستان شما متمركز شود؟ چطور چنين چيزي ممكن است؟ قدرت مگر چيزي غير از تمركز منابع است؟

اين اقدام بسياري از متخصصان OpenAI را نيز به‌دلايل مشابه آزرده‌خاطر كرده بود. مديريت براي آرام‌كردن جوّ، در اسناد محرمانه‌اي به سؤال آن‌ها مبني‌بر اينكه «آيا مي‌توانم به OpenAI اعتماد كنم؟» جواب داد «بله» و بعد در يك پاراگراف دلايل اين اعتماد را توضيح داد.

چرا اين‌قدر پنهان‌كاري؟

OpenAI برخلاف اسمش كه از هوش مصنوعي متن‌باز حرف مي‌زند، شركت چندان روراستي نيست و اكثر اتفاقاتي كه پشت ديوارهاي آن مي‌افتد، از ديد خبرنگاران و عموم مردم پنهان است. درواقع، به‌انديشه متخصصين مي‌رسد در تمام سال‌هاي فعاليت اين شركت، تنها يكي از خبرنگاران MIT اجازه داشته است در ساختمان اين شركت حاضر شود و با اعضاي تيم گفت‌وگو كند و چند مصاحبه‌اي كه رسانه‌ها پس از عرضه‌ي ChatGPT با سم آلتمن انجام داده‌اند، خارج از ديوارهاي OpenAI بوده است.

طبق توصيف خبرنگارMIT، در طبقه اول ساختمان OpenAI چند فضاي مشترك و دو اتاق كنفرانس به‌چشم مي‌خورد. يكي از اين اتاق‌ها كه براي جلسات بزرگ‌تر در انديشه متخصصين گرفته شده است، هم‌‌نام با فيلم استنلي كوبريك، «اديسه فضايي» (A Space Odyssey) نام دارد. فضاي ديگر كه بيشتر شبيه باجه‌تلفن است تا اتاق كنفرانس، «شوخي بي‌پايان» (Infinite Jest)، عنوان رمان معروف ديويد فاستر والاس، ناميده مي‌شود. اين اتاق، تنها جايي است كه خبرنگاران اجازه دارند به آن دسترسي داشته باشند و بازديد آن‌ها از طبقات دوم و سوم ممكن نيست؛ جايي كه پذيراي ميز كار اعضاي تيم و چندين ربات و تمام اتفاقات هيجان‌انگيز است.

مرجع متخصصين ايران لوگوي OpenAI
نمايي از لوگو OpenAI داخل ساختمان اين شركت

به‌انديشه متخصصين مي‌رسد آنچه OpenAI به‌طورعلني اعلام مي‌كند با نحوه‌ي عملكردش پشت درهاي بسته در تناقض باشد. با گذشت زمان، رقابت شديد و فشار فزاينده براي دستيابي به بودجه‌ي بيشتر باعث شد اين شركت از آرمان‌هايي كه در زمان تأسيس در سر داشت، ازجمله شفافيت، روراستي، روحيه همكاري و عرضه‌ي متن‌باز محصولات فاصله بگيرد.

بسياري از متخصصان اين شركت هنگام مصاحبه با MIT، اصرار مي‌كردند كه نامشان فاش نشود؛ چون اجازه نداشتند درباره‌ي پروژه‌هاي شركت صحبت كنند يا از واكنش مديريت مي‌ترسيدند. از رفتار آن‌ها اين تصوير در ذهن شكل مي‌گيرد كه OpenAI با وجود تمام آرمان‌هاي ستودني‌اش، به‌شدت درگير حفظ رازهاي شركت، وجهه خود و وفاداري متخصصان است.

OpenAI اگرچه در سال ۲۰۱۵ تأسيس شد، اولين‌باري كه مردم از رسانه‌ها چيزي درباره‌ فعاليت‌هايش شنيدند، ۱۴ فوريه ۲۰۱۹ بود كه خبر پژوهش تحسين‌انگيزي منتشر شد: مدلي به نام GPT-2 كه مي‌توانست مقالات قانع‌كننده‌اي را تنها با فشار‌دادن يك دكمه توليد كند. براي مثال، مي‌شد به اين مدل يك جمله از جزوه رايگان «ارباب حلقه‌ها» يا جمله آغازين يك خبر درباره كشفيات جديد در حوزه هوش مصنوعي داد تا چند پاراگراف متن مرتبط با موضوع درخواست‌شده را ايجاد كند؛ به‌طوري‌كه تشخيص اينكه اين متن را هوش مصنوعي نوشته و نه انسان، واقعاً دشوار بود.

اين دستاورد شگفت‌انگيز با اشكال بزرگي همراه بود. OpenAI مي‌گفت اين مدل خيلي خطرناك است و نمي‌توان آن را دردسترس عموم قرار داد و اينكه اگر اين مدل به‌‌دست افراد ناشايست و خلاف‌كار بيفتد، مي‌تواند خيلي راحت به سلاحي براي توليد اطلاعات نادرست در مقياسي بسيار وسيع تبديل شود.

برخي مي‌گفتند هشدارهاي OpenAI درباره خطر GPT-2 شيرين‌كاري تبليغاتي است

معرفي پروژه GPT-2 واكنش شديد دانشمندان را برانگيخت. برخي مي‌گفتند هشدارهاي OpenAI چيزي جز شيرين‌كاري تبليغاتي نيست؛ چون GPT-2 هنوز آن‌قدر پيشرفته نشده است كه بخواهد در اين‌ حدواندازه خطرناك باشد. اگر هم واقعاً خطرناك بود، چه لاخبار تخصصيي داشت اين شركت وجود آن را اعلام كند و بعد جلو مطالعه موشكافانه مردم را بگيرد؟ باور بسياري اين بود كه OpenAI سعي مي‌كرد از هراسي كه درباره هوش مصنوعي بين مردم ايجاد كرده بود، براي بر سر زبان انداختن نام خود استفاده كند.

واكنش‌هاي منفي عليه GPT-2 به اين‌جا ختم نشد؛ زيرا مردم احساس مي‌كردند OpenAI داشت بارديگر از وعده‌هاي اوليه‌اش مبني بر شفافيت و روراستي فاصله مي‌گرفت. با اعلام خبر سودمحور‌شدن OpenAI تنها يك ماه بعد از معرفي GPT-2 و تصميم اين شركت به جلوگيري از دسترسي عموم به اين پروژه، مردم هيت خيرخواهانه OpenAI دچار شك‌و‌ترديد شدند. آن‌ها با خود مي‌گفتند نكند اين تكنولوژي براي اين از دسترس عموم خارج شده است تا OpenAI بتواند براي آن مجوز بگيرد و بدين‌ترتيب، از انتشار آن به‌صورت متن‌باز، همان‌طور‌كه در ابتدا وعده داده بود، شانه خالي كند؟

مرجع متخصصين ايران اتاق كنفرانس Infinite Jest در شركت OpenAI
اتاق كنفرانس Infinite Jest در شركت OpenAI

مردم خبر نداشتند كه GPT-2، تنها پروژه‌اي نبود كه OpenAI تصميم گرفته بود آن را مخفي‌ كند؛ زيرا در آن زمان، پروژه‌ي ديگري كه حالا آن را با نام Dall-E مي‌شناسيم، چندين سال به‌صورت كاملاً محرمانه‌ در حال توسعه بود. شايد براي شما هم اين سؤال پيش آمده است كه «چرا شركتي كه با شعار شفافيت تأسيس شد و مأموريتش را توزيع مساوي هوش مصنوعي بين تمام مردم دنيا اعلام كرد، پروژه‌هايش را در خفا توسعه مي‌دهد و جلو دسترسي آزاد مردم به آن‌ها را مي‌گيرد؟» درباره‌ي راه‌هاي دستيابي به هوش مصنوعي قوي دو انديشه متخصصينيه رايج وجود دارد كه شايد دليل اين پنهان‌كاري را كمي توضيح دهد:

  • انديشه متخصصينيه‌ اول مي‌گويد تمام روش‌ها و تكنولوژي‌هاي لازم براي رسيدن به AGI همين‌حالا وجود دارد، فقط بايد راهي پيدا كرد تا آن‌ها را به روش مؤثري كنار‌هم چيد و در مقياس به‌مراتب وسيع‌تري اجرا كرد.
  • انديشه متخصصينيه دوم مي‌گويد براي دستيابي به AGI، تكنيك جديدي لازم است كه هنوز توسعه نيافته‌ است. طبق اين انديشه متخصصينيه، يادگيري عميق كه درحال‌حاضر تكنيك غالب حوزه هوش مصنوعي است، براي رسيدن به هوش ماشيني در سطح انسان كافي نيست.

بسياري از پژوهشگران جايي بين اين دو انديشه متخصصينيه ايستاده‌اند؛ اما OpenAI فقط‌وفقط به‌ انديشه متخصصينيه اول معتقد است. اكثر دستاوردهاي اين شركت كه در‌ادامه با برخي از مهم‌ترين آن‌ها آشنا خواهيد شد، محصول به‌كارگيري حجم چشمگيري از قدرت محاسباتي كامپيوتر براي ارتقاي عملكرد نوآوري‌هايي است كه در آزمايشگاه‌هاي ديگر توسعه يافته است. براي مثال، تيمي به نام «Foresight» (آينده‌نگري) در اين شركت مسئول آن است تا توانايي‌هاي هوش مصنوعي را با خوراندن حجم عظيم‌تري از داده به الگوريتم‌هاي موجود و به‌كارگيري قدرت رايانشي بيشتر افزايش دهد.

OpenAI مي‌گويد با همين تكنولوژي‌هاي موجود مي‌توان به هوش مصنوعي قوي دست يافت

در پسِ اين طرز فكر بود كه پروژه Dall-E، مدل بسيار پيشرفته‌اي كه مي‌تواند درخواست‌هاي متني را به تصاوير شگفت‌انگيزي تبديل كند، تا مدت‌ها از ديد عموم مخفي نگه داشته شده بود؛ چراكه OpenAI اين دانش را مزيت رقابتي اصلي خود مي‌داند. به متخصصان و كارآموزان صراحتاً دستور داده شده بود تا هيچ حرفي درباره اين پروژه نزنند و افرادي كه شركت را ترك كردند، به امضاي قرارداد عدم‌افشاي اطلاعات مجبور شده بودند.

تازه در ماه ژانويه ۲۰۲۰ بود كه اين شركت به‌دور از هياهوي رسانه‌اي معمول و خيلي بي‌سروصدا مقاله‌اي را در يكي از پايگاه‌هاي داده متن‌باز براي تحقيقات هوش مصنوعي منتشر كرد. افرادي كه تا آن لحظه به پنهان‌كاري و سكوت درباره اين پروژه مجبور شده بودند، از تصميم اين شركت به انتشار اين مقاله سر در نمي‌آوردند. اوايل، قرار نبود OpenAI درگير اين حجم از مخفي‌كاري شود؛ اما به‌تدريج اين رويه به عادت تبديل شد.

حالا OpenAI ديگر به اصل شفافيت به‌عنوان بهترين راه براي ساخت AGI امن و مفيد اعتقادي ندارد و بسياري از پروژه‌هاي در حال توسعه‌ي آن در هاله‌‌ي غليظي از ابهام و پنهان‌كاري فرورفته‌اند. باوجوداين، توضيحي كه خود OpenAI درباره‌ي اين مخفي‌كاري مي‌دهد،‌ چيز ديگري است. يكي از سخن‌گويان اين شركت در بيانيه‌‌اي گفت: «مي‌خواهيم نتايج تحقيقاتمان را آهسته منتشر كنيم تا پيش از رها‌كردن آن در دستان بشر، متوجه ريسك‌هاي احتمالي و تأثيرات آن شويم.»

با‌اين‌حال، پروژه Dall-E كه موجي از مولدهاي تصوير مبتني‌بر هوش مصنوعي ديگري چون Midjourney و Stable Diffusion را به‌راه انداخت و نسخه‌ي دوم آن در آوريل ۲۰۲۲ وارد فاز بتاي خصوصي شد، تا چهار سال بزرگ‌ترين پروژه‌ي مخفي OpenAI بود. افرادي كه از نزديك درگير توسعه‌ي اين پروژه بودند، مي‌گفتند تيم مديريت OpenAI بر اين باور است كه Dall-E نويدبخش‌ترين راه براي دستيابي به هوش مصنوعي قوي است. عجيب نيست با چنين باوري، OpenAI بخواهد پيشرفت‌هايش را از ديد شركت‌هاي ديگر پنهان كند.

دستاوردهاي مهم OpenAI در حوزه هوش مصنوعي

به‌جز Dall-E كه نسخه دوم آن ۶ آوريل ۲۰۲۲ دراختيار تعداد معدودي از هنرمندان قرار گرفت و ما به‌طورمفصل درباره‌اش در مقاله ديگري صحبت كرديم، OpenAI در مدت ۸ سال از حيات خود، دستاوردهاي مهمي در حوزه هوش مصنوعي داشته كه به‌طور خاص، بر موضوع خلاقيت و ذوق هنري دست گذاشته است. در‌ادامه، برخي از آن‌ها را معرفي مي‌كنيم.

بات ‌OpenAI Five - آگوست ۲۰۱۷

OpenAI Five اولين سيستم هوش مصنوعي است كه توانست قهرمان‌هاي جهان را در بازي Dota 2 شكست دهد. اين بات روش بازي را از صفر و به‌طور خودآموز ياد گرفت و از يادگيري تقليدي يا جست‌وجوي درختي كمك نگرفت. به‌گفته اين شركت، توسعه OpenAI Five اولين قدم به‌سمت ساخت سيستم‌هاي هوش مصنوعي است كه بتوانند در موقعيت‌هاي پيچيده و پرهرج‌ومرج كه رفتارها و واكنش‌هاي انسان‌هاي واقعي را شامل مي‌شود، به اهداف تعيين‌شده دست پيدا كنند.

مدل زباني GPT-2 - نوامبر ۲۰۱۹

GPT مخفف Generative Pre-trained Transformer (مولد از‌پيش‌يادگيري‌يافته ترنسفورمر)، هوش مصنوعي متن‌بازي است كه كارهاي شگفت‌انگيزي انجام مي‌دهد؛ ازجمله ترجمه‌، پاسخ به سؤالات، خلاصه‌كردن متن و توليد متني كه گاهي تشخيص آن از نوشته انساني به‌شدت دشوار خواهد بود. اين مدل برپايه معماري شبكه عصبي ترنسفورمر ايجاد شده است كه گوگل آن را در سال ۲۰۱۷ طراحي كرد و در ساخت مدل زباني پيشرفته‌ LaMDA به‌كار برد.

مرجع متخصصين ايران هوش مصنوعي LaMDA گوگل؛ خودآگاهي يا تظاهر به خودآگاهي؟ [همراه با ويدئو]
هوش مصنوعي LaMDA گوگل؛ خودآگاهي يا تظاهر به خودآگاهي؟ [همراه با ويدئو]
مطالعه '20

مزيت GPT-2 به متن‌باز‌بودن آن است؛ به‌طوري‌كه كد منبع آن به‌رايگان دردسترس عموم قرار دارد و مي‌تواند كمك‌حال استارتاپ‌هايي باشد كه مي‌خواهند مسير توسعه اين مدل زباني را ادامه دهند. جالب اين‌‌‌جا است در همان سال بود كه OpenAI تصميم گرفت ساختار غيرانتفاعي را كنار بگذارد و جلو دسترسي عموم به كد منبع پروژه‌هاي آينده خود را بگيرد.

سيستم توليد آهنگ Jukebox - آوريل ۲۰۲۰

سيستم Jukebox واقعاً حيرت‌انگيز است. كافي است به اين بات ژانر آهنگ و نام هنرمند و متن آهنگ را بدهيد تا نمونه‌اي از يك آهنگ جديد را از صفر تا صد برايتان توليد كند. در پروفايل ساندكلاد OpenAI، به نمونه‌هايي از آهنگ‌هاي توليد‌شده با هوش مصنوعي Jukebox مي‌توانيد گوش كنيد. به‌گفته اين شركت، متن آهنگ‌ها به‌وسيله مدل زباني و تعدادي از پژوهشگران نوشته شده است.

پيش از معرفي Jukebox، شركت OpenAI سيستم MuseNet را در سال ۲۰۱۹ رونمايي كرد كه دانش فوق‌العاده‌اي از انواع و اقسام ژانرهاي موسيقي داشت و مي‌توانست با تركيب دو ژانر متفاوت، مثلاً كلاسيك و پاپ، آهنگي در ژانري جديد توليد كند.

مدل زباني GPT-3 - ژوئن ۲۰۲۰

اگرچه GPT-2 در زمان خودش دستاورد مهمي محسوب مي‌شد، به‌خاطر دسترسي به مجموعه داده محدود و تنها ۱٫۵ ميليارد پارامتر، در توليد متن‌هايي كه بعد از چند پاراگراف تكراري و خسته‌كننده نشوند، قدرت مانور زيادي نداشت. نسخه سوم اين مدل با ۱۷۵ ميليارد پارامتر در سال ۲۰۲۰ در فاز بتا عرضه شد؛ هرچند در اقدامي خلاف سياست‌هاي شركت، كد منبع آن هرگز دراختيار عموم قرار نگرفت. جالب است بدانيد هوش مصنوعي LaMDA گوگل كه يكي از مهندسانش در ادعايي عجيب آن را خودآگاه خوانده است، ۱۳۷ ميليارد پارامتر دارد و از GPT-3 ضعيف‌تر است.

GPT-3 در حوزه يادگيري ماشين معجزه مي‌كند. كيفيت نمونه‌هايي كه با استفاده از اين هوش مصنوعي توليد‌ شده، به‌قدري شگفت‌انگيز است كه به‌سختي مي‌توان تشخيص داد آن‌ها را انسان ننوشته است. براي مثال، متخصصي در توييتر كه اجازه پيدا كرده است از GPT-3 استفاده كند، نمونه‌ متن‌هايي را به‌اشتراك گذاشته كه در آن،‌ هوش مصنوعي در قالب يوتيوبرهاي تكنولوژي فرو رفته است و درباره لپ‌تاپي صحبت مي‌كند كه روح ريچارد نيكسون را تسخير كرده است. اين متخصص جمله تأمل‌برانگيزي براي اين توييت نوشته است: «يوتيوبرهاي انسان، خدا رحمتتون كنه. هيچ‌وقت نمي‌تونيد با محتوايي مثل اين رقابت كنيد.»

مرجع متخصصين ايران توييت نمونه متن GPT-3
متني كه GPT-3 براي درخواست «مطالعه لپ‌تاپ تسخيرشده به‌وسيله روح ريچارد نيكسون» نوشته است

OpenAI از ارائه GPT-3 به‌صورت پروژه‌اي متن‌باز خودداري كرد؛ چون مايكروسافت امتياز دسترسي انحصاري به كد منبع اين مدل را خريده است. البته عموم مي‌توانند از اين مدل استفاده كنند؛ هرچند بايد اجازه‌‌ي دسترسي به اين پلتفرم را از مايكروسافت بگيرند.

ابزار كدنويس Copilot - ژوئن ۲۰۲۱

مايكروسافت با سرمايه‌گذاري يك‌ميليارد‌دلاري در OpenAI در سال ۲۰۱۸، برنامه‌هاي بزرگي در سر داشت (سرمايه‌گذاري كه بعدا در سال ۲۰۲۳ به ۱۱ ميليارد دلار رسيد). اين شركت علاوه‌بر كسب حق امتياز GPT-3، ازطريق پلتفرم گيت‌هاب با OpenAI وارد همكاري شد تا ابزار هوش مصنوعي Copilot را توسعه دهند. Copilot درون برنامه ويرايشگر كد اجرا مي‌شود و به توسعه‌دهندگان در نوشتن كد كمك مي‌كند. استفاده از Copilot براي دانشجويان تأييد‌شده و گردانندگان پروژه‌هاي متن‌باز رايگان است و به‌گفته گيت‌هاب، در فايل‌هايي كه Copilot در آن‌ها فعال است، نزديك ۴۰ درصد كدها با اين ابزار نوشته مي‌شود. Copilot از مدل Codex شركت OpenAI توسعه يافته كه از نسل الگوريتم پرچم‌دار GPT-3 است.

مولد تصوير Dall-E

پلتفرم مولد تصوير DALL-E كه نامش از تركيب سالوادور دالي، نقاش سورئاليست و انيميشن WALL-E پيكسار گرفته شده است، يكي از جذاب‌ترين محصولات توسعه‌يافته در OpenAI است.

نسخه‌ي اول DALL-E براساس مدل GPT-3 توسعه يافت و تنها به ايجاد تصاويري در ابعاد ۲۵۶ در ۲۵۶ پيكسل محدود بود. اما نسخه‌ي دوم كه در آوريل ۲۰۲۲ وارد فاز بتاي خصوصي شد، جهش بزرگي در حوزه‌ي مولدهاي تصوير مبتني بر هوش مصنوعي محسوب مي‌شود. تصاويري كه DALL-E 2 قادر به ايجاد آن‌ها است، حالا ۱۰۲۴ در ۱۰۲۴ پيكسل هستند و از تكنيك‌هاي جديدي چون «inpainting» استفاده مي‌كنند كه در آن بخش‌هايي از تصوير به انتخاب متخصص با تصوير ديگري جايگزين مي‌شوند.

مرجع متخصصين ايران پلتفرم Dall-E
نمونه‌هايي از تصاوير ساخته شده با Dall-E

نسخه‌ي دوم DALL-E علاوه‌بر قابليت ويرايش و رتوش عكس، مي‌تواند توضيح متني ساده‌اي مانند «مهماني چاي فيل‌ها روي چمن» را كه پيش از اين وجود خارجي نداشته‌اند، به چنان تصاوير هنري يا واقعي تبديل كند كه از ديدن آن‌ها شگفت‌زده خواهيد شد. درواقع، جادوي DALL-E نه صرفاً به شناخت اشيا به‌صورت جداگانه بلكه در درك فوق‌العاده‌ي آن از روابط بين اشيا است، به‌طوري كه وقتي از آن مي‌خواهيد «فضانوردي سوار بر اسب» را ايجاد كند،‌ خوب مي‌داند منظور شما از اين خواسته دقيقاً چيست.

ما حتي به‌كمك Dall-E، بتمن را به ميدان آزادي تهران آورديم و قدرت هوش مصنوعي آن را با Midjourney مقايسه كرديم! DALL-E و ابزارهاي مشابه با ما نشان مي‌دهد سيستم‌هاي هوش مصنوعي، دنياي ما را چگونه مي‌بينند و درك مي‌كنند كه اين مورد به گفته‌ي OpenAI، براي توسعه‌ي هوش مصنوعي مفيد و امن بسيار مهم است.

چت‌بات ChatGPT -نوامبر ۲۰۲۲

مرجع متخصصين ايران چت بات ChatGPT

ChatGPT نوعي چت‌بات آزمايشي يا بهتر است بگويم بهترين چت‌باتي است كه تاكنون در دسترس عموم قرار گرفته است. اين چت‌بات كه نوامبر ۲۰۲۲ عرضه شد، مبتني‌بر نسخه‌ي ۳.۵ مدل زباني GPT است.

در وصف شگفتي‌هايChatGPT حرف‌هاي زيادي زده شده است. متخصصان با تايپ درخواست‌هاي خود در رابط متخصصي به‌شدت ساده‌ي اين چت‌بات، نتايج حيرت‌انگيزي دريافت مي‌كنند؛ از توليد شعر و آهنگ و فيلم‌نامه گرفته تا نوشتن مقاله و كد و پاسخ به هر سؤالي كه فكرش را بكنيد؛ و تمام اين‌ها تنها در كمتر از ده ثانيه

حجم داده‌هايي كه ChatGPT با آن‌ها يادگيري داده شده به حدي وسيع است كه خواندن تمام آن‌ها به‌گفته‌ي مايكل وولدريج، مدير تحقيقات بنيادي هوش مصنوعي در مؤسسه آلن تورينگ در لندن، به «هزار سال عمر انساني» نياز دارد. او مي‌گويد داده‌هايي كه در دل اين سيستم پنهان شده، دانش بي‌نهايت بزرگي را درباره‌ي جهاني كه در آن زندگي مي‌كنيم، در خود جاي داده است.

منشور و استراتژي OpenAI

مرجع متخصصين ايران OpenAI

شايد يكي از دغدغه‌هاي مهم مربوط به هوش مصنوعي، مباحثه جايگزيني هوش انساني باشد. حالا كه با هوش ماشيني مي‌توان آهنگ ساخت، داستان نوشت، عجيب‌وغريب‌ترين ايده‌ها را به‌تصوير كشيد و حتي كد نوشت،‌ ديگر چه نيازي به هنرمندان و برنامه‌نويسان خواهد بود؟ پاسخ OpenAI به اين دغدغه مهم در منشوري آماده است كه به‌نوعي ستون فقرات اين شركت به‌شمار مي‌رود و تمام استراتژي‌ها و سياست كلي آن را به‌تصوير مي‌كشد:

به‌باور ما، تأثير هوش مصنوعي بايد به‌گونه‌اي باشد كه به تمام افراد آزادي اقتصادي بدهد تا بتوانند فرصت‌هاي جديدي پيدا كنند كه امروز تصور‌كردني نيست.

براي براكمن پايبندي سرسختانه به اين سند چيزي است كه ساختار OpenAI را كارآمد مي‌كند. براساس اين منشور، تمام متخصصان به‌استثناي چند نفر، موظف‌اند كه در يك اتاق كار كنند. بسياري از آن‌ها به مهماني‌هاي يكساني مي‌روند و به فلسفه «ايثار مؤثر» معتقدند كه مي‌گويد از شواهد و منطق بايد براي تعيين مؤثرترين شيوه‌هاي بهبود جهان استفاده كرد. اين منشور به‌قدري براي OpenAI مقدس است كه حقوق متخصصان نيز به ميزان پايبندي آن‌ها به اصول آن تعيين مي‌شود.

منشور OpenAI به‌قدري مقدس است كه حقوق متخصصان به ميزان پايبندي به آن تعيين مي‌شود

فردي كه استراتژي OpenAI را در اين منشور گردآوري كرده، كسي نيست جز داريو آمودي، متخصص سابق گوگل كه ابتدا درباره هدف و مأموريت OpenAI شك‌و‌ترديد داشت؛ اما بعد به‌عنوان مدير تحقيقات اين شركت مشغول به كار شد.

آمودي اواخر سال ۲۰۲۰، OpenAI را همراه با خواهرش دنيلا ترك كرد تا شركت توسعه مدل زباني Anthropic را راه‌اندازي كند؛ اما زماني‌كه در OpenAI مشغول به كار بود، استراتژي اين شركت را به دو بخش تقسيم كرد. بخش اول به برنامه‌ريزي براي دستيابي به قابليت‌هاي پيشرفته هوش مصنوعي مربوط مي‌شود و تيم‌هاي مختلف بر سر اين شرط‌بندي‌ مي‌كنند كه توسعه كدام قابليت درنهايت به AGI منتهي مي‌شود. براي مثال، تيم زبان روي اين انديشه متخصصينيه شرط بسته است كه هوش مصنوعي مي‌تواند تنها ازطريق يادگيري زبان، به درك چشمگيري از جهان دست پيدا كند. درمقابل، تيم رباتيك معتقد است توسعه هوش ماشيني در سطح هوش انساني به جسم فيزيكي نياز دارد.

ازانديشه متخصصين OpenAI، هركدام از اين پيش‌بيني‌ها وزن يكساني دارد و لازم است پيش از كنار گذاشتنشان، به‌طوركامل آزمايش شوند. آمودي در تأكيد اهميت اين موضوع، مدل زباني GPT-2 را مثال زد كه مي‌تواند به‌طرز فوق‌العاده واقع‌گرايانه‌اي متن‌‌هاي پيچيده توليد كند. او مي‌گويد:

زبان خالص مسيري بود كه حوزه هوش مصنوعي و حتي برخي از ما ‌درباره‌اش شك‌وترديد داشتيم؛ اما الان به جايي رسيده است كه با حيرت مي‌گوييم اين حوزه حرف زيادي براي گفتن دارد.

در‌نهايت، هدف اين است كه تعداد اين تيم‌ها مرتب كمتر‌و‌كمتر شود تا سرانجام تمام انديشه متخصصينيه‌ها و شرط‌بندي‌هاي مختلف در انديشه متخصصينيه‌اي واحد براي توسعه AGI جمع شوند. پروژه بسيار محرمانه Dall-E نيز دقيقاً از همين فرايند پيروي كرده است.

ما در موقعيت بغرنجي قرار داريم، نه مي‌دانيم AGI چه شكلي است و نه اينكه كِي قرار است اتفاق بيفتد

بخش دوم استراتژي OpenAI بر راهكارهايي متمركز است تا سيستم‌هاي هوش مصنوعي مرتب در حال تكامل را امن و بي‌خطر كند. براي نمونه، اينكه مطمئن شوند اين سيستم‌ها ارزش‌هاي انساني را بازتاب مي‌كنند، مي‌توانند منطق پسِ تصميماتشان را توضيح دهند و بدون آسيب‌رساندن به انسان‌ها چيزهاي جديد ياد بگيرند. آمودي اقرار مي‌كند كه اين بخش از استراتژي OpenAI ساختار منسجمي ندارد و بيشتر فرايندي حسي است تا مبتني‌‌‌‌‌بر پايه انديشه متخصصينيه‌هاي اثبات‌شده.

روزي خواهيد ديد كه ما به AGI مي‌رسيم و دوست دارم تا آن روز حس خوبي به اين سيستم‌ها داشته باشم. هرچيزي كه درحال‌حاضر حس خوبي به آن نداشته باشم، يك تيم برايش ايجاد مي‌كنم تا فقط روي آن متمركز شوند.ما در موقعيت بغرنجي قرار داريم، اينكه نمي‌دانيم AGI چه شكلي است و كِي قرار است اتفاق بيفتد. ذهن هر شخصي محدود است. بهترين كاري كه مي‌توان كرد، استخدام پژوهشگران حوزه امنيت است كه اغلب انديشه متخصصيناتشان از چيزي كه فكر مي‌كنم، متفاوت است. به‌دنبال چنين تنوعي هستم كه به‌ انديشه متخصصينم تنها راهي است كه مي‌توان متوجه تمام جوانب قضيه شد.

اشكالات OpenAI: نبود تنوع و بودجه

براكمن، رييس و مدير هيئت‌مديره OpenAI مي‌گويد براي رسيدن به بهترين و امن‌ترين شكل هوش مصنوعي قوي، استراتژي بيشترين تنوع در اعضاي تيم را دنبال مي‌كند؛ اما اعضاي تيم واقعاً چقدر متنوع‌اند؟ دست‌كم تا سال ۲۰۲۰ كه گفت‌وگوي MIT با متخصصان OpenAI انجام شده بود، از بيش از ۱۲۰ متخصص، تنها ۲۵ درصد آن‌ها زن بودند. در تيم هيئت‌مديره كه اسامي آن‌ها در وب‌سايت منتشر شده، از ۹ نفر تنها سه نفر زن هستند. هر چهار مدير عالي‌رتبه OpenAI، ازجمله براكمن و آلتمن، مردان سفيدپوست هستند. درصد بسيار زيادي از متخصصان هم يا سفيدپوست هستند يا آسيايي.

نبود تنوع جنسيتي و نژادي در حوزه هوش مصنوعي بسيار رايج است. براي مثال، گزارش ۲۰۱۹ مؤسسه AI Now نشان داد كه زن‌ها، تنها ۱۸ درصد سخنران‌هاي كنفرانس‌هاي مطرح در حوزه هوش مصنوعي و ۲۰ درصد استادان دانشگاه و ۱۰ درصد پژوهشگران فيسبوك و گوگل را تشكيل مي‌دهند. باوجوداين، نبود تنوع براي شركتي كه مأموريتش «توزيع تكنولوژي هوش مصنوعي به‌طورمساوي بين همه» است، اتفاق به‌مراتب اشكال‌سازتري خواهد بود؛‌ چراكه OpenAI از گروه‌هايي كه ممكن است از سمت هوش مصنوعي و تبعيض‌هاي مدل‌هاي زباني درمعرض بيشترين آسيب قرار داشته باشند، نماينده‌اي ندارد.

براكمن قبول ندارد كه اشكالات اجتماعي AGI را بايد از همان ابتدا حل كرد

علاوه‌براين، اصلاً معلوم نيست OpenAI چگونه مي‌خواهد مزاياي AGI را بين تمام بشر، آن‌هم به‌طور‌مساوي توزيع كند. برخي مي‌گويند اين شركت دركي از جنبه‌ي اجتماعي هوش مصنوعي ندارد و صرفاً چون مي‌داند اين حوزه بسيار سودآور است، درگير آن شده است.

براكمن مي‌پذيرد كه براي تحقق رؤياي OpenAI، هم تخصص متخصص و هم تخصص اجتماعي لازم است؛ اما قبول ندارد كه اشكالات اجتماعي را بايد از همان قدم‌هاي نخستين حل كرد. به‌باور او، قدم اول اين است كه بفهميم AGI قرار است چه شكلي باشد و تازه بعد‌از‌آن، مي‌توان درباره‌ي پيامدهاي اين سيستم صحبت كرد.

اشكال دوم OpenAI تا‌مدت‌ها كمبود بودجه بود كه البته با سرمايه‌گذاري ۱۰ ميليارد دلاري اخير مايكروسافت، به‌ انديشه متخصصين مي‌رسد در حال رفع شدن است. به‌عنوان بخشي از مفاد قرارداد، مايكروسافت قرار است سرمايه‌گذاري در توسعه و پياده‌سازي سيستم‌هاي اَبَركامپيوتري را با هدف كمك به تحقيقات OpenAI افزايش دهد. مايكروسافت با ۴۹ درصد سهام در OpenAI، ازاين‌پس شريك تجاري انحصاري اين شركت براي ارائه‌ي خدمات ابري است.

OpenAI مي‌خواهد ساختار غيرانتفاعي خود را حفظ كند، اما نمي‌تواند با اين وضعيت، بودجه‌ي كافي براي اجراي پروژه‌هايش را داشته باشد؛ به‌ويژه چون قصد دارد زودتر از هر شركت ديگري به هوش مصنوعي قوي برسد. اشكال بودجه، اين شركت را از اهداف اوليه خود كه مبتني‌بر ارائه‌ي متن‌باز محصولاتش بود، دورتر كرد؛ حالا بايد ديد همكاري بلند‌مدتش با مايكروسافت چه تغييري در روند برنامه‌هاي اين شركت ايجاد خواهد كرد.

هوش مصنوعي قوي؛ پايان خلاقيت انساني؟

احتمالاً زماني مي‌رسد كه تقريباً همه‌چيز با هوش مصنوعي جايگزين خواهد شد. اهميت پروژه‌هاي OpenAI و شايد جنبه‌ي هراس‌انگيز آن‌ها موفقيتشان به توسعه‌ي نوعي از هوش مصنوعي است كه به‌ظاهر خلاقيت و ذوق هنري انساني را هدف گرفته‌ است. پروژه‌ي Dall-E به ما نشان داد كه در آينده نزديك، شايد ديگر به تصويرگران و افراد متخصص در حوزه‌ي ويرايش عكس نيازي نباشد؛ چون هوش مصنوعي اين كار را در چند ثانيه به‌‌رايگان و با نتيجه‌اي حيرت‌انگيز انجام مي‌دهد.

مدل زباني GPT-3 و چت‌بات ChatGPT نيز موفق شدند متن‌هايي توليد كنند كه تشخيص آن‌ها از نوشته‌هاي انساني واقعاً دشوار است. اين‌ چت‌بات حتي مي‌تواند كد بنويسد و شايد با فراگير‌شدن اين سيستم، ديگر حتي به برنامه‌نويسان مبتدي و بسياري از مشاغل مرتبط نيازي نباشد.

مرجع متخصصين ايران آيا هوش مصنوعي و ربات‌ها مي‌خواهند ما را از كار بيكار كنند؟
آيا هوش مصنوعي و ربات‌ها مي‌خواهند ما را از كار بيكار كنند؟
مطالعه '12

با‌اين‌همه، OpenAI شركت نوآوري مملو از پژوهشگران مستعد است كه با تمام وجود، سخت مشغول انجام پژوهش‌هاي بلندپروازانه‌اي براي خدمت به بشر هستند. تمام اين پنهان‌كاري‌ها و اشكالات اگر به همين شكل ادامه پيدا كند، ممكن است درنهايت فاجعه‌بار شود؛ به‌ويژه اگر وجه تاريك هوش مصنوعي در به‌كارگيري آن در جنگ‌افزارهاي جديد را در انديشه متخصصين بگيريم. اما تا دستيابي به هوش مصنوعي در سطح انسان راه درازي مانده و OpenAI و شركت‌هاي هوش مصنوعي ديگر، هنوز فرصت دارند سياست كارآمدتري را براي تحقق مأموريت‌هايشان به‌منظور «توزيع تكنولوژي هوش مصنوعي به‌طورمساوي بين همه» در پيش گيرند.

در حال مطالعه ليست مطالعاتي هستي
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

هم انديشي ها

تبليغات

با چشم باز خريد كنيد
اخبار تخصصي، علمي، تكنولوژيكي، فناوري مرجع متخصصين ايران شما را براي انتخاب بهتر و خريد ارزان‌تر راهنمايي مي‌كند
ورود به بخش محصولات