هوش مصنوعی عامل‌محور، تهدیدی برای حریم خصوصی کاربران

رئیس پیام‌رسان امن سیگنال در کنفرانس SXSW در تگزاس، نسبت به خطرات بالقوه هوش مصنوعی عامل‌محور (Agentic AI) برای حریم خصوصی کاربران هشدار داد، او این فناوری را به «قرار دادن مغز در یک شیشه» تشبیه و تاکید کرد که این رویکرد جدید در محاسبات، مسائل عمیقی را در زمینه‌های امنیت و حریم خصوصی ایجاد می‌کند.

به گزارش ایمنا و به نقل از تک‌کرانچ، مِرِدیت ویتاکر، فعال حریم خصوصی و رئیس پیام‌رسان امن سیگنال در سخنرانی خود در کنفرانس SXSW در آستین تگزاس با اشاره به استفاده از عوامل هوش مصنوعی (AI Agents) به عنوان «قرار دادن مغز در یک شیشه» هشدار داد که این الگوی محاسباتی جدید که در آن هوش مصنوعی وظایف را از طرف کاربران انجام می‌دهد، دارای مشکل عمیقی در زمینه حریم خصوصی و امنیت است.

ویتاکر توضیح داد که عوامل هوش مصنوعی به عنوان راهی برای افزودن ارزش به زندگی با رسیدگی به وظایف مختلف آنلاین برای کاربر به بازار عرضه می‌شوند، برای مثال، این عوامل می‌توانند وظایفی همچون جست‌وجوی کنسرت‌ها، رزرو بلیط، برنامه‌ریزی رویداد در تقویم و پیام دادن به دوستان برای اطلاع‌رسانی رزرو را انجام دهند.

وی با لحنی طنزآمیز پرسید: بنابراین می‌توانیم مغزمان را در یک شیشه بگذاریم، زیرا این عامل این کار را انجام می‌دهد و لازم نیست ما آن را لمس کنیم؟ سپس توضیح داد که عامل هوش مصنوعی برای انجام این وظایف به دسترسی‌هایی همچون مرورگر وب، هدایت فرآیندها، اطلاعات کارت اعتباری برای پرداخت هزینه‌ها، تقویم و برنامه پیام‌رسانی برای ارسال پیام به دوستان نیاز دارد.

ویتاکر هشدار داد: این عامل باید بتواند در کل سیستم ما با مجوز ریشه (root permission) فعالیت کند و به همه پایگاه‌های داده دسترسی داشته باشد.

وی افزود: اگر مدل هوش مصنوعی به اندازه کافی قدرتمند باشد، این فرآیند تقریباً به طور قطع در سرورهای ابری پردازش می‌شود، نه روی دستگاه کاربر، بنابراین مشکل عمیقی در امنیت و حریم خصوصی ایجاد می‌کند که سد خونی-مغزی بین لایه برنامه و سیستم‌عامل را با ادغام خدمات جداگانه و مخدوش کردن داده‌ها از بین می‌برد.

ویتاکر تأکید کرد: ادغام برنامه‌های پیام‌رسان همچون سیگنال با عوامل هوش مصنوعی، حریم خصوصی پیام‌ها را تضعیف می‌کند، زیرا عامل برای ارسال پیام به دوستان باید به برنامه دسترسی داشته باشد و داده‌ها را برای خلاصه کردن پیام‌ها استخراج کند.

وی در پایان خاطرنشان کرد: پارادایم فعلی هوش مصنوعی که بر پایه جمع‌آوری انبوه داده‌ها استوار است، پیامدهای ناخواسته‌ای دارد و استفاده از عوامل هوش مصنوعی به نام «ربات چراغ جادو» نه تنها به مراقبت از نیازهای زندگی کمک نمی‌کند، بلکه حریم خصوصی و امنیت را نیز تهدید می‌کند.

کد خبر 846916

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.