به گزارش سرویس ترجمه ایمنا، تیکتاک ساعت برای قدیمیشدن یک پیشرفت و معرفی پیشرفتهای جدید فناوری هر لحظه به گوش میرسد؛ پیشرفتهایی که هربار از قبلی چشمگیرتر است و سریعتر از آن پا به عرصه حضور، معرفیشدن، مورد استقبال قرار گرفتن و گسترشیافتن میگذارد.
غولهای فناوری هر روز در حال معرفی محصول یا خدمتی تأثیرگذارتر از قبلی هستند و با هر بار معرفی آنها احتمال زیر و رو شدن همهچیز وجود دارد. در این میان هوش مصنوعی بهعنوان یکی از داغترین مباحث فناوری، تأثیرگذارترین عنصر است. ۲۰۲۳ سالی است که در آن هوش مصنوعی همهچیز را تغییر میدهد، بنابراین آشنایی با اختصارات بیشازحد تکنیکی این دانش از ضروریات موجود در آغاز این سال بهشمار میرود.
شبکه عصبی
شبکههای عصبی، فناوری اساسی در قلب رونق هوش مصنوعی هستند و میتوان آنها را معادل موتور بخار در انقلاب صنعتی اول در نظر گرفت، یعنی یک فناوری همهمنظوره که به صنایع مختلف راه مییابد و آنها را متحول میکند. شبکههای عصبی بهعنوان تلاشهایی برای مدلسازی مغز حیوانات که از میلیونها نورون ساده ساخته شده است، برای نخستین بار در دهه ۱۹۴۰ پا به عرصه حضور گذاشت.
هر نورون منفرد بسیار ساده است، اما کمیت باعث کیفیت میشود و تعداد کافی از آنها در کنار یکدیگر میتواند انجام وظایف پیچیده را فراگیرد. این امر در مورد شبکههای عصبی مصنوعی نیز صدق میکند، با این تفاوت که این نورونهای مصنوعی به جای اتصالات فیزیکی، ایدههای الگوریتمی محض هستند.
یک شبکه عصبی با مقادیر عظیمی از قدرتهای محاسباتی و داده کار میکند، بنابراین همانطورکه درک قدرت واقعی اختراع موتور بخار دههها طول کشید، این فناوری طی بیش از ۷۰ سال گذشته مورد کاوش قرار گرفت، در آغاز هزاره جاری تغییر کرد و عصر هوش مصنوعی با هیجانی دستوپا شکسته آغاز شد.
LLM
مدل زبانی بزرگ یا LLM بهعنوان الگوریتم یادگیری عمیق که براساس حجم وسیعی از دادههای متنی آموزش دیده است، یکی از دو رویکرد اصلی هوش مصنوعی بهشمار میرود که به آخرین پیشرفتها در این بخش منجر شده است. این مدل، شبکههای عصبی را توصیف میکند که با استفاده از مجموعههای عظیم دادههای متنی همچون الگوریتم گوگلپالم، مجموعههای GPT مرکز تحقیقاتی OpenAI یا متاهای LLaMa آموزش دیده است. بهعنوان مثال، PALM از اسناد وب با کیفیت بالا، کتابها، ویکیپدیا، مکالمات و کد GitHub برای توسعه درک زبان استفاده میکند.
LLM با توجه به بخش کوتاهی از یک متن، ادامه آن را ارائه و به سوالات ساده پاسخ میدهد. انجام درست و مناسب این وظیفه فوقالعاده قدرتمند است و ارائه یک بخش جدید و کمی طولانیتر از متن به آن در کنار تکرار سوال، جملات، پاراگرافها، مقالات یا کتابهای کامل را ارائه میکند. LLM در اجرای همه وظایفی که برایش نوشته شده است خوب کار میکند، نکته موجود درباره آن این است که هرچه مدل زبان بزرگتر باشد، نتیجه بهتری حاصل میشود.
GAN
عملکرد «شبکه مولد تخاصمی» یا GAN مشابه با عملکرد LLM ها برای متن اما روی تصاویر، فیلمها، موسیقی و موارد دیگر است. این شبکهها یک راهکار هوشمندانه برای آموزش و مدلسازی یک مولد با استفاده از روشهای یادگیری عمیق است. به بیان دقیقتر، GAN دو شبکه عصبی برای کشف دادههای ورودی و یادگیری دارد.
این دو مدل که به نامهای مولد و متمایزگر شناخته میشود، یکی برای برچسبگذاری، دستهبندی و رتبهبندی و دیگری برای ایجاد از ابتدا است. جفت کردن آنها با یکدیگر هوش مصنوعی ایجاد میکند که میتواند محتوا را بر اساس دستور تولید کند.
مولد مدلی است که برای تولید نمونه آموزش میبیند و متمایزگر مدلی است که دستهبندی نمونه اصلی و تولیدشده را برعهده دارد و باید فریب بخورد. در این صورت است که ثابت میشود مولد نمونهای باورپذیر ایجاد کرده است. برای مثال زمانی که فردی به یک هوش مصنوعی برای تولید عکس نیاز دارد، ابتدا آن را برچسبگذاری میکند.
هوش مصنوعی که توانایی دیدن یک تصویر و توصیف آنچه در آن دیده میشود را دارد، با نشان دادن میلیونها تصویری که قبلاً برچسبگذاری شده است، آن را تشخیص میدهد و توصیف میکند. از این تصویر برای فریب دادن متمایزگر استفاده میشود. اگر هوش مصنوعی دوم (متمایزگر) بتواند تصویری را ایجاد کند که اولین هوش مصنوعی برچسب مورد نظر را به آن بدهد، همهچیز درست انجام شده است.
جعبه سیاه
شبکههای عصبی اغلب بهعنوان یک «جعبه سیاه» توصیف میشوند. GPT-3 حاوی ۱۷۵ میلیارد «پارامتر» است که هر کدام از آنها توضیح میدهد که یک نورون به شدت یا بهطور ضعیف بر دیگری تأثیر میگذارد. اما پیشبینی آنچه که هر پارامتر مشخص برای LLM بهعنوان یک کل انجام میدهد تقریباً غیرممکن است. حتی ساختار کلی شبکههای عصبی چیزی شبیه به یک رمز و راز است و گاهی تنها میتوان به نظم آن نگاهی اجمالی داشت.
برای مثال T در GPT مخفف Transformer و راهی برای اتصال شبکه عصبی بهمنظور تقلید از حافظه کوتاهمدت است. این امر برای چیزی که شامل خواندن یک جمله در یک کلمه در یک زمان باشد منطقی بهنظر میرسد، اما جنبههای دیگر طراحی شبکه عصبی بیشتر آزمون و خطا است. برای مثال به نظر میرسد که مجبور کردن یک شبکه عصبی برای فشار آوردن به سیستم تفکر خود تنها از طریق چند نورون میتواند کیفیت خروجی را بهبود ببخشد، اما چرایی آن مشخص نیست.
محاسبه کردن
آموزش یک مدل جدید هوش مصنوعی گران تمام میشود. براساس مقالات تحقیقاتی OpenAI، ساخت نهایی GPT-3 حدود ۱۰ میلیون دلار زمان محاسباتی را به خود اختصاص داد و قبل از اجرای نهایی آن بهنحویکه در نظر گرفته شده بود، تلاشهای بیثمری انجام گرفت. این مانع که بهعنوان دسترسی به محاسبات یا قدرت محاسباتی شناخته میشود، به این معناست که ابزارهای همهمنظوره بزرگ مانند LLMها در اختیار شرکتهای بزرگ است.
در سال 2018، OpenAI هشدار داد که میزان محاسبات مورد استفاده در اجرای آموزش هوش مصنوعی هر سه ماه و نیم، دو برابر میشود. یک سال بعد این شرکت اعلام کرد که به دلیل نیاز برای سرمایهگذاری میلیاردها دلار در سالهای آینده روی محاسبات ابری بزرگمقیاس، مدل غیرانتفاعی خود را تغییر خواهد داد.
در سایه مثلث طلایی آکسفورد، کمبریج و لندن، بریتانیا در تحقیقات هوش مصنوعی پیشرو در جهان است. اما دانشگاهیان آن اغلب در دسترسی خود به مقدار محاسباتی که برای کار در لبههای پیشرفته نیاز دارند، محدود هستند که همین امر برای غولهای شرکتی آمریکایی و چینی با میلیاردها دلار سرمایهگذاری، سودهای کلان به ارمغان میآورد. این امر منجر به درخواستهایی برای یک BritGPT متعلق به دولت شده است که با بودجه عمومی ساخته شده تا محاسباتی را که محققان بریتانیایی فاقد آن هستند را فراهم کند.
همترازی یا همسویی
هوش مصنوعی میتواند آنچه به وی یاد داده شده است را انجام دهد و گاهی اوقات به دلیل دادههای آموزشی بد که دربردارنده سوگیریها و نادرستیها است غیرهمسو میشود. بهعنوان مثال اگر هوش مصنوعی طراحیشده برای شناسایی مجرمانی که در آینده باز مرتکب جرم میشوند، براساس مجموعه دادهای از زندانیان آموزش دیده باشد، هرگز از افرادی که به زندان فرستاده نشدهاند اطلاعی نخواهد داشت.
گاهی نیز این ناهمسویی به دلیل دریافت پرسش اشتباه رخ میدهد. یک LLM برای پیشبینی متن بعدی طراحی شده است، اما گاهی واقعاً نکته موردنظر را ارائه نمیدهد زیرا درخواستدهنده ترجیح میدهد پاسخهای «صحیح» را به جای پاسخهای «محتمل» دریافت کند؛ گاه نیز همترازی به معنای وجودیتر عمل میکند.
برای مثال فردی از هوش مصنوعی میخواهد بهترین حالت فعالیتی یک کارخانه را برای بهحداکثر رساندن تولید ساعتی بهینه کند و مهمترین هدف خود را حصول اطمینان از تداوم عملکرد تولیدی کارخانه تا میلیاردها سال آینده قرار میدهد، بنابراین در برنامههای خود یک فناوری را پنهان میکند که هرگونه حیات ارگانیک را روی سیاره از بین میبرد. این نیز یک هوش مصنوعی غیرهمسو خواهد بود.
ترجمه از مریم زمانی خبرنگار ایمنا
نظر شما