به گزارش ایمنا و به نقل از تککرانچ، مِرِدیت ویتاکر، فعال حریم خصوصی و رئیس پیامرسان امن سیگنال در سخنرانی خود در کنفرانس SXSW در آستین تگزاس با اشاره به استفاده از عوامل هوش مصنوعی (AI Agents) به عنوان «قرار دادن مغز در یک شیشه» هشدار داد که این الگوی محاسباتی جدید که در آن هوش مصنوعی وظایف را از طرف کاربران انجام میدهد، دارای مشکل عمیقی در زمینه حریم خصوصی و امنیت است.
ویتاکر توضیح داد که عوامل هوش مصنوعی به عنوان راهی برای افزودن ارزش به زندگی با رسیدگی به وظایف مختلف آنلاین برای کاربر به بازار عرضه میشوند، برای مثال، این عوامل میتوانند وظایفی همچون جستوجوی کنسرتها، رزرو بلیط، برنامهریزی رویداد در تقویم و پیام دادن به دوستان برای اطلاعرسانی رزرو را انجام دهند.
وی با لحنی طنزآمیز پرسید: بنابراین میتوانیم مغزمان را در یک شیشه بگذاریم، زیرا این عامل این کار را انجام میدهد و لازم نیست ما آن را لمس کنیم؟ سپس توضیح داد که عامل هوش مصنوعی برای انجام این وظایف به دسترسیهایی همچون مرورگر وب، هدایت فرآیندها، اطلاعات کارت اعتباری برای پرداخت هزینهها، تقویم و برنامه پیامرسانی برای ارسال پیام به دوستان نیاز دارد.
ویتاکر هشدار داد: این عامل باید بتواند در کل سیستم ما با مجوز ریشه (root permission) فعالیت کند و به همه پایگاههای داده دسترسی داشته باشد.
وی افزود: اگر مدل هوش مصنوعی به اندازه کافی قدرتمند باشد، این فرآیند تقریباً به طور قطع در سرورهای ابری پردازش میشود، نه روی دستگاه کاربر، بنابراین مشکل عمیقی در امنیت و حریم خصوصی ایجاد میکند که سد خونی-مغزی بین لایه برنامه و سیستمعامل را با ادغام خدمات جداگانه و مخدوش کردن دادهها از بین میبرد.
ویتاکر تأکید کرد: ادغام برنامههای پیامرسان همچون سیگنال با عوامل هوش مصنوعی، حریم خصوصی پیامها را تضعیف میکند، زیرا عامل برای ارسال پیام به دوستان باید به برنامه دسترسی داشته باشد و دادهها را برای خلاصه کردن پیامها استخراج کند.
وی در پایان خاطرنشان کرد: پارادایم فعلی هوش مصنوعی که بر پایه جمعآوری انبوه دادهها استوار است، پیامدهای ناخواستهای دارد و استفاده از عوامل هوش مصنوعی به نام «ربات چراغ جادو» نه تنها به مراقبت از نیازهای زندگی کمک نمیکند، بلکه حریم خصوصی و امنیت را نیز تهدید میکند.
نظر شما