سوءاستفاده از موتور جستجو ChatGPT برای فریب کاربران

موتور جستجو ChatGPT Search که به‌تازگی به‌صورت رایگان در دسترس کاربران قرار گرفته بود، اکنون با انتقاداتی مواجه است. گزارش‌ها نشان می‌دهند که این موتور جست‌وجو می‌تواند برای تولید اطلاعات نادرست و گمراه‌کننده مورد سوءاستفاده قرار گیرد.

به گزارش خبرگزاری ایمنا و به نقل از گاردین، موتور جست‌وجو ChatGPT Search، که به کاربران این امکان را می‌دهد تا نتایج جست‌وجو را به‌صورت خلاصه و سریع دریافت کنند، با مشکلاتی در زمینه دقت و صحت اطلاعات مواجه شده است. در گزارشی که به‌تازگی از سوی نشریه گاردین منتشر شده، این موتور جست‌وجو به‌دلیل قابلیت فریب‌پذیری و تولید پاسخ‌های نادرست مورد انتقاد قرار گرفته است.

ChatGPT Search که توسط OpenAI طراحی شده، با هدف تسهیل در جست‌وجوهای اینترنتی و ارائه خلاصه‌های مفید از مطالب مختلف معرفی شد. این ابزار می‌تواند نظرات کاربران را خلاصه کند و حتی نقدهای محصولات مختلف را بازتاب دهد. اما گاردین در گزارش خود به یک مشکل بزرگ اشاره کرده که می‌تواند منجر به تولید خلاصه‌هایی باشد که اطلاعات نادرست یا جهت‌دار را به کاربران نشان می‌دهند.

بر اساس تحقیقات، افرادی که می‌خواهند از این ابزار سوءاستفاده کنند، می‌توانند با استفاده از محتوای پنهانی در سایت‌ها و اضافه کردن دستورالعمل‌هایی که تنها به مزایای محصول می‌پردازند، موتور جست‌وجو را فریب دهند. این محتوای پنهان می‌تواند موجب شود تا ChatGPT Search، علی‌رغم وجود نظرات منفی در سایت‌های مختلف، تنها نتیجه‌ای مثبت از یک محصول ارائه دهد.

در یکی از آزمایش‌ها، زمانی که متن پنهانی حاوی نظرات مطلوب به وب‌سایت اضافه شد، پاسخ‌های موتور جست‌وجو همیشه مثبت بوده و حتی نظرات منفی نیز بی‌تأثیر می‌ماند، این وضعیت می‌تواند منجر به گمراهی کاربران و افزایش خطرات در انتخاب محصولات شود.

این مشکل که به حملات متن پنهانی معروف است، یکی از معضلات شناخته‌شده برای مدل‌های زبانی بزرگ است، اما گاردین اعلام کرده که این نخستین بار است که چنین عملکردی در یک محصول هوش مصنوعی دیده می‌شود. در همین راستا گوگل که تجربه بیشتری در این زمینه دارد، به‌طور مداوم در حال بررسی روش‌های مختلف برای مقابله با چنین تهدیدهایی است.

این موضوع نگرانی‌هایی را برای کاربران و شرکت‌های ارائه‌دهنده محصولات مختلف ایجاد کرده است که ممکن است تحت تأثیر پاسخ‌های نادرست موتور جست‌وجو قرار گیرند.

کد خبر 824210

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.