لزوم آشنایی با مفاهیم اولیه هوش مصنوعی

هوش مصنوعی مفهومی گره‌خورده به دنیای فناوری‌محور امروز است و آشنایی با آن هرچند به‌صورت مختصر از الزامات بخش تجاری دنیای امروز به‌شمار می‌رود.

به گزارش سرویس ترجمه ایمنا، تیک‌تاک ساعت برای قدیمی‌شدن یک پیشرفت و معرفی پیشرفت‌های جدید فناوری هر لحظه به گوش می‌رسد؛ پیشرفت‌هایی که هربار از قبلی چشمگیرتر است و سریع‌تر از آن پا به عرصه حضور، معرفی‌شدن، مورد استقبال قرار گرفتن و گسترش‌یافتن می‌گذارد.

غول‌های فناوری هر روز در حال معرفی محصول یا خدمتی تأثیرگذارتر از قبلی هستند و با هر بار معرفی آن‌ها احتمال زیر و رو شدن همه‌چیز وجود دارد. در این میان هوش مصنوعی به‌عنوان یکی از داغ‌ترین مباحث فناوری، تأثیرگذارترین عنصر است. ۲۰۲۳ سالی است که در آن هوش مصنوعی همه‌چیز را تغییر می‌دهد، بنابراین آشنایی با اختصارات بیش‌ازحد تکنیکی این دانش از ضروریات موجود در آغاز این سال به‌شمار می‌رود.

شبکه عصبی

شبکه‌های عصبی، فناوری اساسی در قلب رونق هوش مصنوعی هستند و می‌توان آن‌ها را معادل موتور بخار در انقلاب صنعتی اول در نظر گرفت، یعنی یک فناوری همه‌منظوره که به صنایع مختلف راه می‌یابد و آن‌ها را متحول می‌کند. شبکه‌های عصبی به‌عنوان تلاش‌هایی برای مدل‌سازی مغز حیوانات که از میلیون‌ها نورون ساده ساخته شده است، برای نخستین بار در دهه ۱۹۴۰ پا به عرصه حضور گذاشت.

هر نورون منفرد بسیار ساده است، اما کمیت باعث کیفیت می‌شود و تعداد کافی از آن‌ها در کنار یکدیگر می‌تواند انجام وظایف پیچیده را فراگیرد. این امر در مورد شبکه‌های عصبی مصنوعی نیز صدق می‌کند، با این تفاوت که این نورون‌های مصنوعی به جای اتصالات فیزیکی، ایده‌های الگوریتمی محض هستند.

یک شبکه عصبی با مقادیر عظیمی از قدرت‌های محاسباتی و داده کار می‌کند، بنابراین همان‌طورکه درک قدرت واقعی اختراع موتور بخار دهه‌ها طول کشید، این فناوری طی بیش از ۷۰ سال گذشته مورد کاوش قرار گرفت، در آغاز هزاره جاری تغییر کرد و عصر هوش مصنوعی با هیجانی دست‌وپا شکسته آغاز شد.

LLM

مدل زبانی بزرگ یا LLM به‌عنوان الگوریتم یادگیری عمیق که براساس حجم وسیعی از داده‌های متنی آموزش دیده است، یکی از دو رویکرد اصلی هوش مصنوعی به‌شمار می‌رود که به آخرین پیشرفت‌ها در این بخش منجر شده است. این مدل، شبکه‌های عصبی را توصیف می‌کند که با استفاده از مجموعه‌های عظیم داده‌های متنی هم‌چون الگوریتم گوگل‌پالم، مجموعه‌های GPT مرکز تحقیقاتی OpenAI یا متاهای LLaMa آموزش دیده است. به‌عنوان مثال، PALM از اسناد وب با کیفیت بالا، کتاب‌ها، ویکی‌پدیا، مکالمات و کد GitHub برای توسعه درک زبان استفاده می‌کند.

LLM با توجه به بخش کوتاهی از یک متن، ادامه آن را ارائه و به سوالات ساده پاسخ می‌دهد. انجام درست و مناسب این وظیفه فوق‌العاده قدرتمند است و ارائه یک بخش جدید و کمی طولانی‌تر از متن به آن در کنار تکرار سوال، جملات، پاراگراف‌ها، مقالات یا کتاب‌های کامل را ارائه می‌کند. LLM در اجرای همه وظایفی که برایش نوشته شده است خوب کار می‌کند، نکته موجود درباره آن این است که هرچه مدل زبان بزرگ‌تر باشد، نتیجه بهتری حاصل می‌شود.

GAN

عملکرد «شبکه مولد تخاصمی» یا GAN مشابه با عملکرد LLM ها برای متن اما روی تصاویر، فیلم‌ها، موسیقی و موارد دیگر است. این شبکه‌ها یک راهکار هوشمندانه برای آموزش و مدل‌سازی یک مولد با استفاده از روش‌های یادگیری عمیق است. به بیان دقیق‌تر، GAN دو شبکه عصبی برای کشف داده‌های ورودی و یادگیری دارد.

این دو مدل که به نام‌های مولد و متمایزگر شناخته می‌شود، یکی برای برچسب‌گذاری، دسته‌بندی و رتبه‌بندی و دیگری برای ایجاد از ابتدا است. جفت کردن آن‌ها با یکدیگر هوش مصنوعی ایجاد می‌کند که می‌تواند محتوا را بر اساس دستور تولید کند.

مولد مدلی است که برای تولید نمونه آموزش می‌بیند و متمایزگر مدلی است که دسته‌بندی نمونه اصلی و تولیدشده را برعهده دارد و باید فریب بخورد. در این صورت است که ثابت می‌شود مولد نمونه‌ای باورپذیر ایجاد کرده است. برای مثال زمانی که فردی به یک هوش مصنوعی برای تولید عکس نیاز دارد، ابتدا آن را برچسب‌گذاری می‌کند.

هوش مصنوعی که توانایی دیدن یک تصویر و توصیف آنچه در آن دیده می‌شود را دارد، با نشان دادن میلیون‌ها تصویری که قبلاً برچسب‌گذاری شده است، آن را تشخیص می‌دهد و توصیف می‌کند. از این تصویر برای فریب دادن متمایزگر استفاده می‌شود. اگر هوش مصنوعی دوم (متمایزگر) بتواند تصویری را ایجاد کند که اولین هوش مصنوعی برچسب مورد نظر را به آن بدهد، همه‌چیز درست انجام شده است.

جعبه سیاه

شبکه‌های عصبی اغلب به‌عنوان یک «جعبه سیاه» توصیف می‌شوند. GPT-3 حاوی ۱۷۵ میلیارد «پارامتر» است که هر کدام از آن‌ها توضیح می‌دهد که یک نورون به شدت یا به‌طور ضعیف بر دیگری تأثیر می‌گذارد. اما پیش‌بینی آنچه که هر پارامتر مشخص برای LLM به‌عنوان یک کل انجام می‌دهد تقریباً غیرممکن است. حتی ساختار کلی شبکه‌های عصبی چیزی شبیه به یک رمز و راز است و گاهی تنها می‌توان به نظم آن نگاهی اجمالی داشت.

برای مثال T در GPT مخفف Transformer و راهی برای اتصال شبکه عصبی به‌منظور تقلید از حافظه کوتاه‌مدت است. این امر برای چیزی که شامل خواندن یک جمله در یک کلمه در یک زمان باشد منطقی به‌نظر می‌رسد، اما جنبه‌های دیگر طراحی شبکه عصبی بیشتر آزمون و خطا است. برای مثال به نظر می‌رسد که مجبور کردن یک شبکه عصبی برای فشار آوردن به سیستم تفکر خود تنها از طریق چند نورون می‌تواند کیفیت خروجی را بهبود ببخشد، اما چرایی آن مشخص نیست.

محاسبه کردن

آموزش یک مدل جدید هوش مصنوعی گران تمام می‌شود. براساس مقالات تحقیقاتی OpenAI، ساخت نهایی GPT-3 حدود ۱۰ میلیون دلار زمان محاسباتی را به خود اختصاص داد و قبل از اجرای نهایی آن به‌نحوی‌که در نظر گرفته شده بود، تلاش‌های بی‌ثمری انجام گرفت. این مانع که به‌عنوان دسترسی به محاسبات یا قدرت محاسباتی شناخته می‌شود، به این معناست که ابزارهای همه‌منظوره بزرگ مانند LLMها در اختیار شرکت‌های بزرگ است.

در سال 2018، OpenAI هشدار داد که میزان محاسبات مورد استفاده در اجرای آموزش هوش مصنوعی هر سه ماه و نیم، دو برابر می‌شود. یک سال بعد این شرکت اعلام کرد که به دلیل نیاز برای سرمایه‌گذاری میلیاردها دلار در سال‌های آینده روی محاسبات ابری بزرگ‌مقیاس، مدل غیرانتفاعی خود را تغییر خواهد داد.

در سایه مثلث طلایی آکسفورد، کمبریج و لندن، بریتانیا در تحقیقات هوش مصنوعی پیشرو در جهان است. اما دانشگاهیان آن اغلب در دسترسی خود به مقدار محاسباتی که برای کار در لبه‌های پیشرفته نیاز دارند، محدود هستند که همین امر برای غول‌های شرکتی آمریکایی و چینی با میلیاردها دلار سرمایه‌گذاری، سودهای کلان به ارمغان می‌آورد. این امر منجر به درخواست‌هایی برای یک BritGPT متعلق به دولت شده است که با بودجه عمومی ساخته شده تا محاسباتی را که محققان بریتانیایی فاقد آن هستند را فراهم کند.

هم‌ترازی یا هم‌سویی

هوش مصنوعی می‌تواند آنچه به وی یاد داده شده است را انجام دهد و گاهی اوقات به دلیل داده‌های آموزشی بد که دربردارنده سوگیری‌ها و نادرستی‌ها است غیرهم‌سو می‌شود. به‌عنوان مثال اگر هوش مصنوعی طراحی‌شده برای شناسایی مجرمانی که در آینده باز مرتکب جرم می‌شوند، براساس مجموعه داده‌ای از زندانیان آموزش دیده باشد، هرگز از افرادی که به زندان فرستاده نشده‌اند اطلاعی نخواهد داشت.

گاهی نیز این ناهم‌سویی به دلیل دریافت پرسش اشتباه رخ می‌دهد. یک LLM برای پیش‌بینی متن بعدی طراحی شده است، اما گاهی واقعاً نکته موردنظر را ارائه نمی‌دهد زیرا درخواست‌دهنده ترجیح می‌دهد پاسخ‌های «صحیح» را به جای پاسخ‌های «محتمل» دریافت کند؛ گاه نیز هم‌ترازی به معنای وجودی‌تر عمل می‌کند.

برای مثال فردی از هوش مصنوعی می‌خواهد بهترین حالت فعالیتی یک کارخانه را برای به‌حداکثر رساندن تولید ساعتی بهینه کند و مهم‌ترین هدف خود را حصول اطمینان از تداوم عملکرد تولیدی کارخانه تا میلیاردها سال آینده قرار می‌دهد، بنابراین در برنامه‌های خود یک فناوری را پنهان می‌کند که هرگونه حیات ارگانیک را روی سیاره از بین می‌برد. این نیز یک هوش مصنوعی غیرهم‌سو خواهد بود.

ترجمه از مریم زمانی خبرنگار ایمنا

کد خبر 644801

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.