خطاهای عجیب هوش مصنوعی «گوگل»؛ «سنگ بخورید و به پیتزا چسب بزنید»

کارشناسان شگفت‌زده می‌شوند از اینکه می‌بینند چت‌بات‌ها با وجود این همه چیزهای بدی که در نت وجود دارد چقدر مودب و خوش‌رفتار هستند

منتشر شده در: آخرین به روزرسانی:
فعال‌سازی حالت خواندن
100% Font Size
2 دقيقه (Reading time)

«گوگل» به تازگی از آخرین ابزار جستجوگر مجهز به هوش مصنوعی خود در «کروم»، «فایرفاکس»، و مرورگر اپلیکیشن گوگل به طور آزمایشی برای صدها میلیون کاربر پرده‌برداری کرد.

«مرورگر هوش مصنوعی» با استفاده از هوش مصنوعی مولد خلاصه‌ای از نتایج جستجو ارائه می‌دهد که کاربر را از کلیک کردن روی لینک بی‌نیاز می‌کند، اما پاسخ آن به برخی پرسش‌ها می‌تواند فاجعه‌آمیز یا حتی خطرناک باشد.

مثلا مرورگر هوش مصنوعی به شما می‌گوید که فضانوردان در ماه گربه دیده‌اند و با آن بازی کرده‌اند. همچنین توصیه می‌کند که باید حداقل روزی یک سنگ کوچک بخورید چون سنگ‌ منبع حیاتی مواد معدنی و ویتامین‌ است. همچنین پیشنهاد می‌کند که روی پیتزا چسب بزنید.

به گفته کارشناسان، ابزارهای هوش مصنوعی مولد نمی‌دانند چه چیزی درست است، بلکه آنچه را می‌دانند که «محبوب» است. به عنوان مثال، مقالات زیادی در وب درباره خوردن سنگ وجود ندارد، زیرا بدیهی است که این احمقانه است. با این حال، یک مقاله در وبسایت طنز «آنیون» درباره خوردن سنگ وجود دارد، که ابزار جستجوگر هوش مصنوعی گوگل خلاصه آن را تحویل کاربر می‌دهد.

مشکل دیگر این است که ابزارهای هوش مصنوعی مولد ارزش‌های اخلاقی انسان را ندارند. آنها در وب آموزش دیده‌اند، لذا جای تعجب نیست که برخی از سوگیری‌ها، تئوری‌های توطئه، و مسائل بدتری که در وب یافت می‌شود را منعکس ‌کنند. در واقع، برخی کارشناسان شگفت‌زده می‌شوند از اینکه می‌بینند چت‌بات‌ها با وجود این همه چیزهای بدی که در نت وجود دارد چقدر مودب و خوش‌رفتار هستند.

کارشناسان می‌گوید دلیل این رفتار عجیب هوش مصنوعی گوگل این است که کمپانی مذکور به دلیل رقابت با شرکت‌های دیگر احتیاط را کنار گذاشته است، و تاکید می‌کنند که این یک استراتژی خطرناک برای گوگل است، چرا که می‌تواند اعتماد عمومی به آن به عنوان مرجعی برای یافتن پاسخ‌ صحیح را از بین می‌برد.

بیشترین بازدید موضوعات مهم

بیشترین بازدید

  • فعال‌سازی حالت خواندن
    100% Font Size