پایگاه خبری فولاد ایران- فقدان توانایی مشورت درونی – به عبارت دیگر تفکر – از دیرباز یکی از اصلی ترین نقاط ضعف هوش مصنوعی در نظر گرفته شده است. مقیاس پیشرفت اخیر در این زمینه توسط OpenAI خالق ChatGPT، محل بحث در جامعه علمی است.
به گزارش فولاد ایران، محققان مدتها استدلال کردهاند که شبکههای عصبی – رویکرد پیشرو به هوش مصنوعی – بیشتر با شناخت «سیستم ۱» همسو میشوند. این مربوط به پاسخ های مستقیم یا شهودی به سؤالات (مانند تشخیص خودکار چهره) است. از سوی دیگر، هوش انسانی نیز بر شناخت «سیستم 2» متکی است. این شامل بحث درونی است و اشکال قوی استدلال (مانند هنگام حل یک مسئله ریاضی یا برنامه ریزی چیزی با جزئیات) را ممکن می کند.
این به ما امکان می دهد تا قطعات دانش را به روش های منسجم اما جدید ترکیب کنیم. پیشرفت OpenAI، که هنوز به طور کامل برای عموم منتشر نشده است، مبتنی بر نوعی از هوش مصنوعی با بررسی داخلی است که با مدل زبان بزرگ O1 آنها (LLM) ساخته شده است.
این دستاورد دو ضعف عمده هوش مصنوعی فعلی را برطرف می کند: انسجام ضعیف پاسخ ها و توانایی برنامه ریزی و دستیابی به اهداف بلندمدت. اولی در کاربردهای علمی مهم است و دومی برای ایجاد عوامل مستقل ضروری است. هر دو می توانند برنامه های کاربردی مهم را فعال کنند.
اصول پشت استدلال در قلب تحقیقات هوش مصنوعی در قرن بیستم بوده است. نمونه اولیه موفقیت، AlphaGo شرکت DeepMind بود، اولین سیستم کامپیوتری که قهرمانان انسان را در بازی آسیایی باستانی Go در سال 2015 شکست داد، و اخیراً AlphaProof که با موضوعات ریاضی درگیر است.
در اینجا، شبکه های عصبی یاد می گیرند که سودمندی یک عمل را پیش بینی کنند. سپس از چنین "شهودهایی" برای برنامه ریزی با جستجوی موثر توالی احتمالی اقدامات استفاده می شود. با این حال، آنچه هنوز مشخص نیست این است که چگونه می توان وسعت دانش LLM های مدرن را با توانایی های استدلال و برنامه ریزی قدرتمند ترکیب کرد.
پیشرفت هایی صورت گرفته است. در حال حاضر، LLM ها وقتی از آنها خواسته می شود تا زنجیره ای از فکر را ایجاد کنند که منجر به پاسخ آنها می شود، پاسخ های بهتری برای سؤالات پیچیده ارائه می دهند. سری جدید "o" OpenAI این ایده را بیشتر پیش می برد و برای انجام این کار به منابع محاسباتی و در نتیجه انرژی بیشتری نیاز دارد.
با یک زنجیره فکری بسیار طولانی، آن را برای "فکر کردن" بهتر آموزش می دهند. بنابراین می بینیم که شکل جدیدی از مقیاس بندی محاسباتی ظاهر می شود. نه تنها دادههای آموزشی بیشتر و مدلهای بزرگتر، بلکه زمان بیشتری صرف «تفکر» در مورد پاسخها میشود. این منجر به بهبود قابل توجهی قابلیتها در کارهای سنگین استدلالی مانند ریاضیات، علوم کامپیوتر و علوم به طور گستردهتر میشود. برای مثال، در حالی که مدل قبلی OpenAI GPT-4o در المپیاد ریاضی 2024 ایالات متحده (در آزمون AIME) تنها حدود 13 درصد امتیاز کسب کرد، o1 به امتیاز 83 درصد رسید و آن را در بین 500 دانشآموز برتر کشور قرار داد.
در صورت موفقیت، خطرات عمده ای وجود دارد که باید در نظر گرفته شود. ما هنوز نمی دانیم چگونه هوش مصنوعی را به طور قابل اعتماد تراز و کنترل کنیم. به عنوان مثال، ارزیابی o1 توانایی افزایش یافته برای فریب دادن انسان ها را نشان داد - نتیجه طبیعی بهبود مهارت های رسیدن به هدف. همچنین نگرانکننده است که توانایی o1 در کمک به ایجاد سلاحهای بیولوژیکی از آستانه خطر OpenAI از پایین به متوسط عبور کرده است.
اعتقاد بر این است که باز کردن قفل استدلال و عاملیت، نقاط عطف اصلی در راه رسیدن به هوش مصنوعی در سطح انسانی است که به عنوان هوش عمومی مصنوعی نیز شناخته میشود. بنابراین انگیزههای اقتصادی قدرتمندی برای شرکتهای بزرگی وجود دارد که برای رسیدن به این هدف میجنگند تا از ایمنی جلوگیری کنند. o1 اما با بهبود برنامهنویسی و تواناییهای علمی، میتوان انتظار داشت که این مدلهای جدید میتوانند تحقیقات روی خود هوش مصنوعی را تسریع کنند. این می تواند آن را سریعتر از حد انتظار به سطح هوش انسانی برساند. پیشرفتها در تواناییهای استدلال، تنظیم مدلهای هوش مصنوعی را برای محافظت از عموم ضروریتر میکند.
منبع: فایننشال تایمز