تمثیل غار چه ارتباطی با هوش مصنوعی دارد؟
در یک زمینه امروزی، میتوانیم محدودیتهای مدلهای هوش مصنوعی را مشابه محدودیتهای زندانیان افلاطون تجسم کنیم. هوش مصنوعی با خود جهان و چیزهای موجود در آن ارتباطی ندارد بلکه فقط به دادههایی که ما به آن میدهیم نگاه میکند.
اولین بار افلاطون بود که این ایده را مطرح کرد. او در تمثیل معروف «غار»، زندانیانی را ترسیم کرد که داخل غاری به زنجیر بسته شدهاند و رویشان به یک دیوار است در حالیکه آتشی نیز پشت سرشان شعله ور است. زندانیان فقط میتوانستند هر چیزی را از طریق سایههایی که در مقابلشان روی دیوار میافتاد درک کنند؛ آنها خود چیزها را نمیدیدند و هر چیزی را که از روبهروی آتش رد میشد فقط از طریق سایهاش روی دیوار میشناختند. به نظر میرسد این تمثیل همچنان در دوران ما کاربرد دارد و میتواند محدودیتهای درک و فهم ما را توضیح بدهد.
هوش مصنوعی چگونه به نسل آلفا ختم میشود؟ | خطر خطرپذیران
در یک زمینه امروزی، میتوانیم محدودیتهای مدلهای هوش مصنوعی را مشابه محدودیتهای زندانیان افلاطون تجسم کنیم. هوش مصنوعی با خود جهان و چیزهای موجود در آن ارتباطی ندارد بلکه فقط به دادههایی که ما به آن میدهیم نگاه میکند. سعی می کند این سایهها را معنا کند و همزمان احتمالات، ارتباطات، الگوها یا روندها را ارزیابی می کند تا بهترین پیش بینی های موجود را انجام دهد. اساساً هوش مصنوعی در درون غار دادههای خودش زندانی است.
داده ها، در هسته خود، تفسیری از جهان ما و بخش های مختلف آن هستند. آنها صرفا یک ارائۀ گزینشی از مشاهدات، اندازه گیری ها و اطلاعات در مورد پدیده های مختلف هستند. از آنجایی که خود داده ها نامحدود هستند، فرآیند انتخاب داده محدود و در نتیجه ذاتاً سلیقهای و شخصی میشود. مدلهای هوش مصنوعی که ما بر مبنای این دادهها میسازیم مبتنی بر سادهسازی هستند تا از نظر اقتصادی مقرونبهصرفهتر و در عین حال همچنان برای ما معنادار باشند. در نتیجه، هیچ مدل هوش مصنوعی نمیتواند بازتابی کامل و جامع از دنیای واقعی باشد، بلکه تنها نسخهای ساده و جزئی از آن خواهد بود.
دادههایی که برای آموزش مدلها به آنها نیاز داریم نیز میتوانند ناقص، تحریفشده یا مغرضانه باشند. وقتی این اتفاق میافتد، مدلها چیزی را تولید میکنند که انسانها آن را بیمعنا تفسیر میکنند. خود مدلها نمی توانند اشتباهات خود را از چشم انسان ها ببینند زیرا آنها فقط آنچه را که به آنها داده می شود می بینند. همانطور که سایه های افلاطون دید زندانیان را محدود می کرد، ما جهان را برای مدل های هوش مصنوعی خود محدود می کنیم. به همین خاطر است که مدلهای هوش مصنوعی اشتباهاتی از این قبیل انجام میدهند: پیشبینی اتوبوسی که با دو سال تاخیر میرسد، تشخیص کیف پولی که در واقع یک آجر است یا ایجاد تصویر گربهای با پنج پا! در جهان مدلها، همۀ اینها نتایج معتبری هستند. اما در دنیای ما، اینها پیشبینیهای بد، تشخیصهای نادرست یا توهم هستند.
اما اگر زمانی مدلهای هوش مصنوعی این امکان را پیدا کنند که فارغ از مشاهدات، تفسیرها و محدودیتهای ما، خودشان بتوانند خودشان را دربارۀ جهان آموزش بدهند، در آن صورت ممکن است استراتژیها و دیدگاههای منحصربهفرد خود را از جهان بسازند. در یکی از بازیهایی که یک مدل شطرنج باز به اسم «آلفاگو» در برابر یک قهرمان انسانی به اسم لی سدول انجام میداد، آلفاگو حرکتی را انجام داد که کارشناسان در ابتدا آن را «احمقانه» خواندند اما در نهایت، این حرکت «احمقانه» در پیروزی AlphaGo بسیار مهم بود. چنین موردی نشان می دهد که مدل های هوش مصنوعی خودآموز میتوانند راه حل ها و پدیده هایی را ببینند که انسان ها نمی بینند.
افلاطون در تمثیل غار میگوید وظیفۀ فیلسوف این است که با خروج از غار و در نظر گرفتن ایدهها، کلیات، الگوها و مفاهیم مختلف درباره جهان بیشتر بیاموزد. با صعود از سایه ها به کلیات و انتزاعات، ما شروع به درک جهان می کنیم و از درک فقط قلمرو مرئی به مفهوم سازی در قلمرو فکری و هوش و عقل حرکت می کنیم.
اما برای اینکه هوش مصنوعی فعلی غار را ترک کند و هوشمندی خود را توسعه دهد به زمان و منابع نیاز دارد. در این میان، باید به یاد داشته باشیم که سیستمهای هوش مصنوعی ما عمدتاً مدلهای تخصصی هستند که ما آموزش میدهیم و تغذیه میکنیم. این مدل ها در درک خود محدود هستند. ما در مرحله ای هستیم که هوش مصنوعی می تواند الگوها و پیش بینی ها را تشخیص دهد اما نمی تواند افکار شناختی یا انتزاعی را تولید کند. همچنین نیازی نیست که افلاطون باشیم تا به یاد داشته باشیم که هر چقدر هم که نتایج هوش مصنوعی متقاعد کننده باشد، باید تفکر انتقادی خودمان را حفظ کنیم و همیشه در نظر داشته باشیم که هوش مصنوعی همچنان در غار گیر افتاده است.
دیدگاه تان را بنویسید