تفاوت یادگیری هوش مصنوعی با یادگیری انسانی
آیا هوش مصنوعی می تواند ارزش ها و اخلاق انسانی را توسعه دهد؟
علیرغم همه هیاهوی رسانه ای پیرامون هوش مصنوعی (AI)، هوش این ربات های هوشمند بسیار متفاوت از IQ انسان است. ، رباتها هنوز پیچیدگی، تفاوتهای ظریف و هوش چندگانه ذهن انسان را نشان نمیدهند.
رباتهای هوش مصنوعی میتوانند شطرنج بازی کنند، اما هنوز نمیتوانند واقعاً احساس خود را برای برد یا باخت بیان کنند. مکالمات شبیه سازی شده با عبارات مبتنی بر الگوریتم و دستور زبان به ربات های چت ظرفیت بینش یا همدلی انسانی را نمی دهد. شاید به همین دلیل است که برخی از افراد از هوش مصنوعی می ترسند یا حداقل به نظر می رسد مطمئن نیستند که آیا هوش مصنوعی ما را نجات می دهد یا نابود می کند.
انسانها در مراحلی رشد می کنند که توسط دیگران هدایت می شوند.
برای القای ارزش ها و اخلاق در هوش مصنوعی، برنامه نویسان ممکن است سعی کنند از روشی که کودکان یاد می گیرند و مفاهیم درست و غلط را توسعه می دهند، تقلید کنند. به نظر می رسد که تفکر کودکان در مراحلی ظاهر می شود و گاهی اوقات دچار جهش های ذهنی و جهش های رشد قابل توجهی می شود. سالها طول می کشد تا کودکان تفکر بزرگسالانه، هوش هیجانی، نظریه ذهن و فراشناخت را تکامل دهند.
مهمتر از همه، انسانها در بستر والدین، معلمان، همسالان و دیگرانی که رفتارهای کمکی خود را با سطح و ظرفیت هر کودک تنظیم میکنند یاد میگیرند. آیا حتی باید انتظار داشته باشیم که هوش مصنوعی مانند یک انسان فکر کند یا زمانی که آنها برای یادگیری تدریجی، مرحلهای و با راهنمایی انسان برنامهریزی نشدهاند، روزی همدلی نشان دهد؟ آیا میتوانیم انتظار داشته باشیم که هوش مصنوعی ارزشها، همدلی یا اخلاقیات را بیاموزد، مگر اینکه رباتها به دقت توسط دیگران هدایت شوند تا مانند کودکان انسان درباره «درست در مقابل اشتباه» فکر کنند؟
علاوه بر این، انسان ها دارای کنجکاوی طبیعی منحصر به فردی هستند. کودکان به طور مداوم مشتاق دانستن بیشتر هستند و در تلاش برای کشف و درک جهان و خود هستند. بنابراین، برنامهریزی ساده ماشینها برای یادگیری کافی نیست. ما همچنین باید به هوش مصنوعی یک کنجکاوی ذاتی بدهیم - نه فقط گرسنگی داده، بلکه چیزی شبیه به انگیزه بیولوژیکی کودک انسان برای درک، سازماندهی و سازگاری. برنامه نویسان در حال حاضر با مدل های یادگیری عمیق کار می کنند تا به طور مداوم هوش مصنوعی را با الگوریتم های الهام گرفته از عصب شناختی انسان بهبود بخشند.(1(
اگر ماشینهای هوش مصنوعی میخواهند اخلاق، همدلی، وجدان یا ارزشهای اخلاقی داشته باشند، باید خودشان به موجوداتی اخلاقی با عملکرد بالا تبدیل شوند. همدلی، مهربانی و شفقت از کجا می آید؟ آیا به صورت فطری است؟ به احتمال زیاد ارزش ها و اخلاقیات خود را از طریق تجربه زندگی به دست آورده اید. شاید هوش مصنوعی باید از طریق تجربه و راهنمایی تدریجی، بیشتر به روشی که انسان ها انجام می دهند، به استدلال اخلاقی بالاتری برسند؟
برای ایجاد اخلاق هوش مصنوعی ، یادگیرندگان ماشینی باید به تدریج و در مراحلی رشد کنند، به طوری که بزرگسالان و اخلاق شناسان هوش مصنوعی را به همان روشی که والدین یا معلم تکامل اخلاقی کودک را هدایت می کنند، هدایت می کنند. این زمان می برد. نسل بعدی هوش مصنوعی به آموزش فراتر از زبان شناسی و ترکیب داده ها نیاز دارد. ما باید به هوش مصنوعی آموزش دهیم که از قواعد کلمات و نحو فراتر رود، به طوری که نسل بعدی هوش مصنوعی درست و غلط را یاد بگیرد. شاید با قوانین روباتیک آسیموف شروع کنیم: «یک روبات (یا هوش مصنوعی) ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه آسیب رساندن به بشریت را ندهد.»(2) آیا میتوانیم هوش مصنوعی ایجاد کنیم که بتواند برای خودش فکر کند، فراتر از اطاعت. قوانین؟
همانطور که ما در تلاش برای ایجاد ماشینهای پیچیدهتر و شبیه به انسان هستیم، باید در نظر داشته باشیم که چگونه برنامهنویسان آینده سطح بعدی هوش مصنوعی را برای داشتن هوش هیجانی، همدلی و تفکر و رفتار اخلاقی ایجاد خواهند کرد.
منابع
(1) راهنمای الگوریتم های یادگیری ماشین و کاربردهای آنها https://www.sas.com/en_gb/insights/articles/analytics/machine-learning-…
(2) آسیموف، آیزاک (1950). "دور گرد". در I, Robot (مجموعه اسحاق آسیموف). شهر نیویورک: دو روزه. شابک 978-0-385-42304-5.