چرا گوگل از برنامه هوشمند لامدا رونمایی نمی‌کند؟

یکشنبه، ۴ دی ۱۴۰۱ - ۱۷:۰۰:۰۰
کدخبر:۱۰۳۴۲۲

گوگل بات هوش مصنوعی چت خود را از ترس از دست دادن اعتبار و شهرتش، عرضه نمی‌کند.

بر اساس گزارش سی‌ان‌بی‌سی از یک جلسه، این شرکت نگران است که این سیستم پاسخ‌هایی بدهد که معقول به نظر می‌رسند اما ممکن است به طور مشخص اشتباه باشند.

در روزهای اخیر، سیستم چت‌‌جی‌پی‌تی (ChatGPT) که اوپن‌ای‌آی (OpenAI) آن را ساخته، بسیار محبوب شده است. توانایی آن در ساخت همه‌چیز از متن‌های جعلی تلویزیونی گرفته تا کدهای برنامه‌نویسی، مبنایی برای توییت‌های محبوب و پربیننده و هراس از آینده بسیاری از صنایع شده است.

محبوبیت این سیستم بسیاری را به این فکر واداشته که آیا گوگل سیستم خود را عرضه خواهد کرد و آیا با این کار فرصتی را از دست داده است. سی‌ان‌بی‌سی گزارش داد که همین پرسش در جلسه‌ای با حضور همه اعضا که این هفته در شرکت برگزار شد، مطرح شد.

اما ساندار پیچای، مدیر اجرایی آلفابت، و جف دین، رئیس هوش مصنوعی گوگل، گفتند که به دلیل میزان و ریسکی که این اپلیکیشن می‌تواند برای شهرت و اعتبار [گوگل] داشته باشد، این شرکت باید «محافظه‌کارانه» حرکت کند.

سیستم گوگل لامدا (LaMDA) نام دارد که مخفف مدل زبانی برای کاربردهای مکالمه‌ای (Language Model for Dialogue Applications) است. اوایل سال جاری، هنگامی که یکی از مهندسان گوگل ادعا کرد [لامدا] «خودآگاه و دارای احساس» شده است، به یک رسوایی جزئی دامن زد؛ ادعایی که بیشتر کارشناسان آن را رد کردند.

گوگل می‌گوید که فناوری ساخته‌شده به عنوان بخشی از توسعه لامدا هم‌اکنون در پیشنهاد جست‌وجوی این شرکت استفاده شده است. به عنوان مثال، این سیستم می‌تواند تشخیص دهد افراد چه زمانی ممکن است به کمک شخصی نیاز داشته باشند و آن‌ها را به سازمان‌هایی هدایت خواهد کرد که می‌توانند آن کمک‌ها را ارائه دهند.

اما بر اساس گزارش‌ها، گوگل اینک در درجه اول، تا زمانی که بتوان با اطمینان بیشتری به آن تکیه کرد، در همین زمینه‌ها باقی خواهد ماند.

دین گفت: «ما در هر صورت در پی آنیم که این چیزها را در محصولات واقعی استفاده کنیم؛ چیزهایی که بیشتر به طور مشخص، دارای مدل زبانی‌اند تا اینکه در لفافه باشند؛ چیزی که ما تا به امروز از آن‌ها استفاده می‌کرده‌ایم. اما، بسیار مهم است که این موضوع را درست انجام دهیم.»

مشکلات این دست سیستم‌های هوش مصنوعی بارها و بارها با جزئیات بیان شده‌اند. این مشکلات عبارت‌اند از هراس از سوءگیری؛ به خصوص زمانی که سیستم تنها با دانش محدودی آموزش دیده باشد و این واقعیت که تشخیص اینکه آیا یک پاسخ واقعا درست است یا نه، دشوار است.

به رغم فناوری‌های پیشرفته‌ زیربنای چت‌ جی‌پی‌تی، بسیاری از این مشکلات در حال حاضر در آن مشاهده شده‌اند. به عنوان مثال، سیستم اغلب به شکلی مطمئن و قانع‌کننده‌، به پرسش‌ها با پاسخ‌هایی که به غایت اشتباه‌اند، جواب می‌دهد.