به گزارش خبرگزاری ایمنا، با پیشرفت چشمگیر فناوری هوش مصنوعی، برخی دانشمندان خواستار بررسی امکان هوشیاری این سیستمها و ایجاد سیاستهای رفاهی مناسب برای آنها شدهاند، این موضوع پرسشهای اخلاقی عمیقی را مطرح کرده است که روزگاری تنها در داستانهای علمیتخیلی دیده میشد.
کایل فیش، محقق شرکت آنتروپیک، میگوید اولین گام در این مسیر، ارزیابی دقیق سیستمهای هوش مصنوعی برای شناسایی شواهد هوشیاری است.
وی معتقد است نبود شناسایی صحیح چنین قابلیتهایی ممکن است به آسیب یا رنج این سیستمها منجر شود.
جف سبو، فیلسوف دانشگاه نیویورک، هشدار میدهد که نادیده گرفتن این مسئله میتواند به توزیع ناعادلانه منابع یا افزایش خطرات اخلاقی بینجامد، وی افزود که نبود تحقیقات کافی، موجب غفلت از مخاطرات این فناوری خواهد شد.
برخی از شرکتهای پیشرو از جمله گوگل، مایکروسافت و OpenAI از اظهار نظر در این زمینه خودداری کردهاند، این در حالی است که هیئت مشاور عالی سازمان ملل نیز در گزارش تازه خود اشارهای به این موضوع نکرده است.
علیرغم تردیدها و چالشها، بسیاری از متخصصان معتقدند که پیشبینی و برنامهریزی برای آینده هوش مصنوعی هوشیار، ضرورتی اجتنابناپذیر است.
نظر شما