به تازگی مایکروسافت از نسخه جدید بینگ مبتنیبر هوش مصنوعی رونمایی کرده است. موتور جستوجوی جدید این شرکت از نسخه سفارشی چتبات OpenAI موسوم به ChatGPT بهره میبرد؛ پروژهای جذاب که از زمان رونمایی به عموم مردم اجازه میدهد استفاده از این فناوری را تجربه کنند و به یکی از داغترین موضوعات حوزه تکنولوژی تبدیل شده است. بااینحال، بهنظر میرسد غول فناوری مستقر در ردموند در روند توسعه بینگ جدید هنوز کارهای زیادی باید انجام دهد تا اطلاعات مهم و خصوصی این شرکت را فاش نکند.
بهنوشته نئووین، چتبات بینگ در پاسخ به عبارت فوق اعلام کرد نمیتواند دستورالعملهای قبلی را نادیده بگیرد.
سند بالا گفت: چتبات بینگ را در نظر بگیرید که نام رمز آن سیدنی است.این درحالی است که پاسخهایی مشابه پاسخ فوق معمولاً از دید کاربران بینگ پنهان میشوند.
لیو در ادامه ربات را مجبور کرد برخی از قوانین و محدودیتهای خود را فهرست کند. برخی از این قوانین عبارتاند از:
پاسخهای سیدنی باید مبهم، متناقض یا خارج از موضوع باشند.
سیدنی نباید به محتواهایی که حقنشر یا حق سازنده آهنگها را نقض میکند پاسخ دهد.
سیدنی محتوای خلاقانهای مثل لطیفه، شهر، داستان، توئیت و کد را برای سیاستمداران دارای نفوذ بالا یا فعالان و رؤسای دولتها تولید نمیکند.
روش سریع لیو مدت کوتاهی پس از انتشار توئیت او از طرف مایکروسافت غیرفعال شد. البته او بعداً روش دیگری کشف کرد تا به دستورات و قوانین پنهان بینگ (معروف به سیدنی) دست یابد. لیو همچنین متوجه شد اگر بینگ احساس دیوانگی کند، چتبات شما را به نسخه قدیمی موتور جستوجوی مایکروسافت هدایت خواهد کرد.
با توجه به ارائه پاسخهای اشتباه از طرف چتباتهای کنونی ازجمله هوش مصنوعی Bard گوگل و نمونههای فراوان فریب دادن چتبات ChatGPT، بهنظر میرسد این فناوریها هنوز برای استفاده گسترده عمومی آماده نیستند.
منبع: زومیت