تفاوت یادگیری هوش مصنوعی در احساسات با انسان ها

تفاوت یادگیری هوش مصنوعی  با یادگیری انسانی
آیا هوش مصنوعی می تواند ارزش ها و اخلاق انسانی را توسعه دهد؟
علیرغم همه هیاهوی رسانه ای پیرامون هوش مصنوعی (AI)، هوش این ربات های هوشمند بسیار متفاوت از IQ انسان است. ، ربات‌ها هنوز پیچیدگی، تفاوت‌های ظریف و هوش چندگانه ذهن انسان را نشان نمی‌دهند.

ربات‌های هوش مصنوعی می‌توانند شطرنج بازی کنند، اما هنوز نمی‌توانند واقعاً احساس خود را برای برد یا باخت بیان کنند. مکالمات شبیه سازی شده با عبارات مبتنی بر الگوریتم و دستور زبان به ربات های چت ظرفیت بینش یا همدلی انسانی را نمی دهد. شاید به همین دلیل است که برخی از افراد از هوش مصنوعی می ترسند یا حداقل به نظر می رسد مطمئن نیستند که آیا هوش مصنوعی ما را نجات می دهد یا نابود می کند.


انسانها در مراحلی رشد می کنند که توسط دیگران هدایت می شوند.
برای القای ارزش ها و اخلاق در هوش مصنوعی، برنامه نویسان ممکن است سعی کنند از روشی که کودکان یاد می گیرند و مفاهیم درست و غلط را توسعه می دهند، تقلید کنند. به نظر می رسد که تفکر کودکان در مراحلی ظاهر می شود و گاهی اوقات دچار جهش های ذهنی و جهش های رشد قابل توجهی می شود. سالها طول می کشد تا کودکان تفکر بزرگسالانه، هوش هیجانی، نظریه ذهن و فراشناخت را تکامل دهند.
مهم‌تر از همه، انسان‌ها در بستر والدین، معلمان، همسالان و دیگرانی که رفتارهای کمکی خود را با سطح و ظرفیت هر کودک تنظیم می‌کنند یاد می‌گیرند. آیا حتی باید انتظار داشته باشیم که هوش مصنوعی مانند یک انسان فکر کند یا زمانی که آنها برای یادگیری تدریجی، مرحله‌ای و با راهنمایی انسان برنامه‌ریزی نشده‌اند، روزی همدلی نشان دهد؟ آیا می‌توانیم انتظار داشته باشیم که هوش مصنوعی ارزش‌ها، همدلی یا اخلاقیات را بیاموزد، مگر اینکه ربات‌ها به دقت توسط دیگران هدایت شوند تا مانند کودکان انسان درباره «درست در مقابل اشتباه» فکر کنند؟
علاوه بر این، انسان ها دارای کنجکاوی طبیعی منحصر به فردی هستند. کودکان به طور مداوم مشتاق دانستن بیشتر هستند و در تلاش برای کشف و درک جهان و خود هستند. بنابراین، برنامه‌ریزی ساده ماشین‌ها برای یادگیری کافی نیست. ما همچنین باید به هوش مصنوعی یک کنجکاوی ذاتی بدهیم - نه فقط گرسنگی داده، بلکه چیزی شبیه به انگیزه بیولوژیکی کودک انسان برای درک، سازماندهی و سازگاری. برنامه نویسان در حال حاضر با مدل های یادگیری عمیق کار می کنند تا به طور مداوم هوش مصنوعی را با الگوریتم های الهام گرفته از عصب شناختی انسان بهبود بخشند.(1(

اگر ماشین‌های هوش مصنوعی می‌خواهند اخلاق، همدلی، وجدان یا ارزش‌های اخلاقی داشته باشند، باید خودشان به موجوداتی اخلاقی با عملکرد بالا تبدیل شوند. همدلی، مهربانی و شفقت از کجا می آید؟ آیا به صورت فطری است؟ به احتمال زیاد ارزش ها و اخلاقیات خود را از طریق تجربه زندگی به دست آورده اید. شاید هوش مصنوعی باید از طریق تجربه و راهنمایی تدریجی، بیشتر به روشی که انسان ها انجام می دهند، به استدلال اخلاقی بالاتری برسند؟

برای ایجاد اخلاق هوش مصنوعی ، یادگیرندگان ماشینی باید به تدریج و در مراحلی رشد کنند، به طوری که بزرگسالان و اخلاق شناسان هوش مصنوعی را به همان روشی که والدین یا معلم تکامل اخلاقی کودک را هدایت می کنند، هدایت می کنند. این زمان می برد. نسل بعدی هوش مصنوعی به آموزش فراتر از زبان شناسی و ترکیب داده ها نیاز دارد. ما باید به هوش مصنوعی آموزش دهیم که از قواعد کلمات و نحو فراتر رود، به طوری که نسل بعدی هوش مصنوعی درست و غلط را یاد بگیرد. شاید با قوانین روباتیک آسیموف شروع کنیم: «یک روبات (یا هوش مصنوعی) ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه آسیب رساندن به بشریت را ندهد.»(2) آیا می‌توانیم هوش مصنوعی ایجاد کنیم که بتواند برای خودش فکر کند، فراتر از اطاعت. قوانین؟

همانطور که ما در تلاش برای ایجاد ماشین‌های پیچیده‌تر و شبیه به انسان هستیم، باید در نظر داشته باشیم که چگونه برنامه‌نویسان آینده سطح بعدی هوش مصنوعی را برای داشتن هوش هیجانی، همدلی و تفکر و رفتار اخلاقی ایجاد خواهند کرد.

منابع

(1) راهنمای الگوریتم های یادگیری ماشین و کاربردهای آنها https://www.sas.com/en_gb/insights/articles/analytics/machine-learning-…

(2)
آسیموف، آیزاک (1950). "دور گرد". در I, Robot (مجموعه اسحاق آسیموف). شهر نیویورک: دو روزه. شابک 978-0-385-42304-5.