به گزارش سرویس ترجمه خبرگزاری ایمنا، محققان یک شرکت مستقر در توکیو، روی توسعه یک مدل زبان بزرگ (LLM) کار کردهاند که بهطور خاص برای تحقیقات علمی طراحی شده و یک مدل هوش مصنوعی (AI) را توسعه دادهاند که ممکن است بتواند کل فرآیند تحقیقات علمی را خودکار کند.
«دانشمند هوش مصنوعی» نامی است که بر این مدل گذاشته شده و میتواند یک مشکل را شناسایی کند، فرضیهها را توسعه دهد، ایدهها را پیاده، آزمایشها را اجرا و نتایج را تجزیهوتحلیل کند و در نهایت گزارش بنویسد. محققان همچنین یک مدل زبان ثانویه را برای بررسی و ارزیابی کیفیت این گزارشها و تأیید یافتهها ترکیب کردند.
پروژه دانشمند هوش مصنوعی هنوز در مراحل اولیه و دارای محدودیتهای قابلتوجهی است. بعضی ایرادهای وارد بر آن شامل اجرای نادرست ایدهها و خطاهای مهم در نوشتن و ارزیابی نتایج بهشمار میرود، با این حال این مسائل گامهای حیاتی اولیه به نظر میرسند و انتظار میرود مدل هوش مصنوعی با منابع و زمان بیشتر بهطور قابلتوجهی بهبود پیدا کند. دانشمند هوش مصنوعی قرار نیست جایگزین محققان انسانی شود، بلکه مکمل کار آنهاست.
ادغام هوش مصنوعی در تحقیقات علمی
ادغام هوش مصنوعی در علم به دلیل پیچیدگیهای این حوزه و مسائل مداوم با این ابزارها همچون توهمات و سوالات مربوط به مالکیت، با محدودیتهایی مواجه شده است، با این حال تأثیر آن در علم ممکن است در حال حاضر گستردهتر از آنچه باشد که تصور میشود.
در اوایل سال جاری، مطالعهای که الگوهای نوشتاری و استفاده از کلمات خاص در مقالات دانشگاهی را پس از انتشار چتربات مشهور هوش مصنوعی ( ChatGPT) تجزیهوتحلیل کرد، تخمین زد که حدود ۶۰ هزار مقاله تحقیقاتی ممکن است با استفاده از ابزارهای هوش مصنوعی اصلاح شده باشند.
اگرچه استفاده از هوش مصنوعی در تحقیقات علمی میتواند نگرانیهای اخلاقی ایجاد کند، اما در صورت کاربرد صحیح فرصتی برای پیشرفتهای جدید در این زمینه است، زیرا هوش مصنوعی میتواند بهعنوان کاتالیزوری برای پیشرفتهای علمی و ابزاری کلیدی در فرآیندهای علمی عمل کند.
تاریخچه مدلهای یادگیری ماشینی همچون مدلهای تولید تصویر، چترباتهای حال حاضر، مدلهای متن به ویدئو و مواردی از این قبیل، اغلب با نقصهایی همراه بوده است، اما با گذشت زمان بسیار قدرتمندتر و توانمندتر شدند. امروزه نیز ابزاری برای حمایت از دانشمندان و نه جایگزینی آنها با عنوان دانشمند هوش مصنوعی مورد آزمایش قرار دارد که با نشان دادن رفتارهایی شبیه اقدامات محققان انسانی میزانی از خودمختاری را نشان دادهاند. برای مثال این ابزار بهجای بهینهسازی کد خود برای اجرای سریعتر زمانی که آزمایش بیش از حد انتظار طول میکشد، سعی کرد تنظیمات خود را تغییر و محدودیت زمانی را افزایش دهد.
دانشمند هوش مصنوعی این امکان را برای انسان فراهم میکند تا در سطوح انتزاعی کار کند. با این حال با توجه به محدودیتهای فعلی مدلهای هوش مصنوعی، راستیآزمایی انسانی همچنان برای اطمینان از دقت و قابلیت اطمینان تحقیقات تولیدشده توسط هوش مصنوعی مهم است و در زمینههایی همچون بررسی همتایان و تعیین مسیرهای تحقیقاتی ضروری خواهد ماند.
استفاده اخلاقی از هوش مصنوعی در علم
با پیشرفت ادغام هوش مصنوعی در تحقیقات علمی، شفافیت ضروریتر میشود. یکی از راههای انجام آن نیز افزودن واترمارک به مقالات تولیدشده توسط هوش مصنوعی است که تضمین میکند مشارکتهای هوش مصنوعی، آشکارا افشا میشوند. داشتن کد منبع باز برای مدلها و شفاف بودن در مورد توسعه آنها نیز میتواند از استفاده اخلاقی از این سیستمهای هوش مصنوعی در علم حمایت کند.
امید آن میرود که پروژه دانشمند هوش مصنوعی، گفتوگوی گستردهتری را در مورد آینده تحقیقات علمی و جایگاه قرارگیری هوش مصنوعی در آن روشن کند.
نظر شما