اخبار فناوری

یک نقص مهم از تولد هوش مصنوعی انسان‌گونه جلوگیری می‌کند

هوش مصنوعی گوگل در اوج توانایی، هنوز در برابر برخی خطاهای ساده کم می‌آورد؛ مشکلی که می‌تواند مسیر تولد هوش مصنوعی انسان‌گونه را طولانی‌تر کند.

نبض فناوری

به گزارش «نبض فناوری» به نقل از زویمت، دمیس هاسابیس مدیرعامل گوگل دیپ‌مایند در پادکست Google for Developers گفت که حتی مدل‌های پیشرفته‌ای مانند جمنای همچنان در برابر مشکلات ساده که دانش‌آموزان دبیرستان هم از پس آن برمی‌آیند، دچار خطا می‌شوند.

به گفته‌ی هاسابیس، ضعف هوش مصنوعی به دلیل نبود یکپارچگی و ثبات در عملکرد مدل‌ها است. او توضیح داد که نسخه‌های پیشرفته‌ی جمنای با تکنیک DeepThink (تفکر عمیق) که روشی برای تقویت توانایی استدلال محسوب می‌شود، مدال طلای المپیاد جهانی ریاضی را کسب کرده‌اند، اما همچنان امکان دارد در یک مسئله‌ی ساده‌ی ریاضی دبیرستانی اشتباه کنند. او این پدیده را «هوش نامتوازن» یا هوش دندانه‌دار نامید. مدیرعامل گوگل دیپ‌مایند می‌گوید: «در برخی حوزه‌ها فوق‌العاده عمل می‌کنند، اما در برخی دیگر، ضعف‌هایشان به‌راحتی آشکار می‌شود.»

دیدگاه هاسابیس با نظر سوندار پیچای مدیرعامل گوگل مطابقت دارد. پیچای قبلاً در پادکست «لکس فریدمن» اصطلاح AJI یا هوش مصنوعی دندانه‌دار را برای توصیف سامانه‌هایی به کار برد که در برخی مهارت‌ها قوی ولی در سایر حوزه‌ها ضعیف‌اند.

هاسابیس تأکید کرد که برطرف کردن مشکل هوش مصنوعی کنونی، فقط با افزایش داده و توان پردازشی ممکن نیست و این فناوری هنوز در حوزه‌هایی مانند استدلال، برنامه‌ریزی و حافظه به پیشرفت اساسی نیاز دارد. او همچنین بر ضرورت طراحی آزمون‌ها و معیارهای پیچیده‌تر برای ارزیابی دقیق نقاط قوت و ضعف مدل‌ها تأکید کرد.

شرکت‌های بزرگی مانند گوگل و OpenAI در تلاش برای دستیابی به هوش مصنوعی انسان‌گونه (AGI) هستند؛ سطحی فرضی که در آن هوش مصنوعی می‌تواند مانند انسان فکر و استدلال کند. هاسابیس قبلاً پیش‌بینی کرده بود که AGI طی ۵ تا ۱۰ سال آینده محقق خواهد شد. بااین حال، سیستم‌های فعلی همچنان مستعد توهم‌زایی، انتشار اطلاعات نادرست و خطاهای ابتدایی هستند.

سم آلتمن مدیرعامل OpenAI نیز قبل‌از رونمایی GPT-5 دیدگاه مشابهی ارائه داد. او با وجود تمجید از پیشرفت مدل جدید اذعان کرد که این فناوری هنوز فاصله‌ی زیادی با AGI دارد و یکی از مهم‌ترین کمبودها را توانایی یادگیری مستقل و مداوم دانست. به گفته‌ی آلتمن، مدل فعلی پس از استقرار از تجربه‌ها و داده‌های جدید یاد نمی‌گیرد؛ قابلیتی که آن را جزئی حیاتی از هوش مصنوعی انسان‌گونه می‌داند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا