[ سبد خرید شما خالی است ]

توانایی هوش مصنوعی در فکر کردن قبل از صحبت!

پایگاه خبری فولاد ایران- فقدان توانایی مشورت درونی – به عبارت دیگر تفکر – از دیرباز یکی از اصلی ترین نقاط ضعف هوش مصنوعی در نظر گرفته شده است. مقیاس پیشرفت اخیر در این زمینه توسط OpenAI خالق ChatGPT، محل بحث در جامعه علمی است.
به گزارش فولاد ایران، محققان مدت‌ها استدلال کرده‌اند که شبکه‌های عصبی – رویکرد پیشرو به هوش مصنوعی – بیشتر با شناخت «سیستم ۱» همسو می‌شوند. این مربوط به پاسخ های مستقیم یا شهودی به سؤالات (مانند تشخیص خودکار چهره) است. از سوی دیگر، هوش انسانی نیز بر شناخت «سیستم 2» متکی است. این شامل بحث درونی است و اشکال قوی استدلال (مانند هنگام حل یک مسئله ریاضی یا برنامه ریزی چیزی با جزئیات) را ممکن می کند.
این به ما امکان می دهد تا قطعات دانش را به روش های منسجم اما جدید ترکیب کنیم. پیشرفت OpenAI، که هنوز به طور کامل برای عموم منتشر نشده است، مبتنی بر نوعی از هوش مصنوعی با بررسی داخلی است که با مدل زبان بزرگ O1 آنها (LLM) ساخته شده است.
این دستاورد دو ضعف عمده هوش مصنوعی فعلی را برطرف می کند: انسجام ضعیف پاسخ ها و توانایی برنامه ریزی و دستیابی به اهداف بلندمدت. اولی در کاربردهای علمی مهم است و دومی برای ایجاد عوامل مستقل ضروری است. هر دو می توانند برنامه های کاربردی مهم را فعال کنند.
اصول پشت استدلال در قلب تحقیقات هوش مصنوعی در قرن بیستم بوده است. نمونه اولیه موفقیت، AlphaGo شرکت DeepMind بود، اولین سیستم کامپیوتری که قهرمانان انسان را در بازی آسیایی باستانی Go در سال 2015 شکست داد، و اخیراً AlphaProof که با موضوعات ریاضی درگیر است.
در اینجا، شبکه های عصبی یاد می گیرند که سودمندی یک عمل را پیش بینی کنند. سپس از چنین "شهودهایی" برای برنامه ریزی با جستجوی موثر توالی احتمالی اقدامات استفاده می شود. با این حال، آنچه هنوز مشخص نیست این است که چگونه می توان وسعت دانش LLM های مدرن را با توانایی های استدلال و برنامه ریزی قدرتمند ترکیب کرد.
پیشرفت هایی صورت گرفته است. در حال حاضر، LLM ها وقتی از آنها خواسته می شود تا زنجیره ای از فکر را ایجاد کنند که منجر به پاسخ آنها می شود، پاسخ های بهتری برای سؤالات پیچیده ارائه می دهند. سری جدید "o" OpenAI این ایده را بیشتر پیش می برد و برای انجام این کار به منابع محاسباتی و در نتیجه انرژی بیشتری نیاز دارد.
با یک زنجیره فکری بسیار طولانی، آن را برای "فکر کردن" بهتر آموزش می دهند. بنابراین می بینیم که شکل جدیدی از مقیاس بندی محاسباتی ظاهر می شود. نه تنها داده‌های آموزشی بیشتر و مدل‌های بزرگ‌تر، بلکه زمان بیشتری صرف «تفکر» در مورد پاسخ‌ها می‌شود. این منجر به بهبود قابل توجهی قابلیت‌ها در کارهای سنگین استدلالی مانند ریاضیات، علوم کامپیوتر و علوم به طور گسترده‌تر می‌شود. برای مثال، در حالی که مدل قبلی OpenAI GPT-4o در المپیاد ریاضی 2024 ایالات متحده (در آزمون AIME) تنها حدود 13 درصد امتیاز کسب کرد، o1 به امتیاز 83 درصد رسید و آن را در بین 500 دانش‌آموز برتر کشور قرار داد.
در صورت موفقیت، خطرات عمده ای وجود دارد که باید در نظر گرفته شود. ما هنوز نمی دانیم چگونه هوش مصنوعی را به طور قابل اعتماد تراز و کنترل کنیم. به عنوان مثال، ارزیابی o1 توانایی افزایش یافته برای فریب دادن انسان ها را نشان داد - نتیجه طبیعی بهبود مهارت های رسیدن به هدف. همچنین نگران‌کننده است که توانایی o1 در کمک به ایجاد سلاح‌های بیولوژیکی از آستانه خطر OpenAI از پایین به متوسط عبور کرده است.
اعتقاد بر این است که باز کردن قفل استدلال و عاملیت، نقاط عطف اصلی در راه رسیدن به هوش مصنوعی در سطح انسانی است که به عنوان هوش عمومی مصنوعی نیز شناخته می‌شود. بنابراین انگیزه‌های اقتصادی قدرتمندی برای شرکت‌های بزرگی وجود دارد که برای رسیدن به این هدف می‌جنگند تا از ایمنی جلوگیری کنند. o1 اما با بهبود برنامه‌نویسی و توانایی‌های علمی، می‌توان انتظار داشت که این مدل‌های جدید می‌توانند تحقیقات روی خود هوش مصنوعی را تسریع کنند. این می تواند آن را سریعتر از حد انتظار به سطح هوش انسانی برساند. پیشرفت‌ها در توانایی‌های استدلال، تنظیم مدل‌های هوش مصنوعی را برای محافظت از عموم ضروری‌تر می‌کند.


منبع: فایننشال تایمز

۳۰ آبان ۱۴۰۳ ۰۹:۴۹
تعداد بازدید : ۵۲
کد خبر : ۷۱,۶۰۲

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید