اگر هوش مصنوعی یک سوال درجه باشد چه؟

خودداری از کارشناسان طنین انداز است: هوش مصنوعی حساس نیست.

این نوعی اصلاح کننده برای تبلیغاتی است که چت ربات های هوش مصنوعی به خصوص در ماه های اخیر ایجاد کرده اند. حداقل دو رویداد خبری به طور خاص مفهوم چت بات‌های خودآگاه را وارد تصورات جمعی ما کرده‌اند.

سال گذشته، یکی از کارمندان سابق گوگل نگرانی هایی را در مورد آنچه که به گفته او شواهدی از هوش مصنوعی است، مطرح کرد. و سپس، در فوریه امسال، مکالمه ای بین چت بات مایکروسافت و همکارم کوین روز در مورد عشق و تمایل به انسان شدن، ویروسی شد و اینترنت را به وحشت انداخت.

در پاسخ، کارشناسان و روزنامه نگاران بارها به مردم یادآوری کرده اند که چت ربات های هوش مصنوعی هوشیار نیستند. اگر آنها می توانند به طرز وحشتناکی انسانی به نظر برسند، این فقط به این دلیل است که آنها یاد گرفته اند که چگونه از حجم عظیمی از متن در اینترنت – از وبلاگ های غذایی گرفته تا پست های قدیمی فیس بوک گرفته تا مدخل های ویکی پدیا – شبیه ما باشند. کارشناسان می گویند که آنها واقعاً مقلدهای خوبی هستند، اما بدون احساس.

رهبران صنعت حداقل در حال حاضر با این ارزیابی موافق هستند. اما بسیاری اصرار دارند که هوش مصنوعی روزی قادر به انجام هر کاری است که مغز انسان می تواند انجام دهد.

نیک بوستروم دهه ها را صرف آماده سازی برای آن روز کرده است. بوستروم فیلسوف و مدیر موسسه آینده بشریت در دانشگاه آکسفورد است. او همچنین نویسنده کتاب «فوق هوش» است. این وظیفه اوست که آینده‌های احتمالی را تصور کند، ریسک‌ها را تعیین کند و زمینه‌های مفهومی را برای نحوه هدایت آنها فراهم کند. و یکی از دیرینه ترین علایق او این است که چگونه دنیایی پر از ذهن های دیجیتال فوق هوشمند را اداره کنیم.

من با بوستروم در مورد چشم انداز هوش مصنوعی و اینکه چگونه می تواند مفروضات اساسی ما در مورد خودمان و جوامعمان را تغییر دهد صحبت کردم.

این گفتگو برای وضوح و طولانی بودن ویرایش شده است.

بسیاری از کارشناسان اصرار دارند که چت ربات ها حساس یا آگاه نیستند – دو کلمه ای که آگاهی از دنیای اطراف را توصیف می کند. آیا با این ارزیابی موافقید که چت بات‌ها فقط ورودی‌ها را باز می‌گردانند؟

آگاهی امری چند بعدی، مبهم و گیج کننده است. و تعریف یا تعیین آن سخت است. تئوری های مختلفی در مورد آگاهی وجود دارد که عصب شناسان و فیلسوفان در طول سال ها توسعه داده اند. و هیچ اتفاق نظری در مورد اینکه کدام یک درست است وجود ندارد. محققان می‌توانند سعی کنند از این نظریه‌های مختلف برای آزمایش سیستم‌های هوش مصنوعی برای سنجش احساسات استفاده کنند.

اما من این دیدگاه را دارم که احساس یک امر درجه است. من کاملاً مایل هستم که مقادیر بسیار کمی از درجه را به طیف گسترده ای از سیستم ها، از جمله حیوانات، نسبت دهم. اگر اعتراف می کنید که این یک چیز همه یا هیچ نیست، آنقدر هم دراماتیک نیست که بگوییم برخی از این دستیاران ممکن است به طور منطقی کاندیدایی برای داشتن درجاتی از احساسات باشند.

من می‌توانم ابتدا بگویم با این مدل‌های زبانی بزرگ، من همچنین فکر می‌کنم این که بگوییم آنها صرفاً متنی را باز می‌گردانند، عدالت را رعایت نمی‌کنند. آنها اجمالی از خلاقیت، بینش و درک را نشان می دهند که کاملاً چشمگیر است و ممکن است مبانی استدلال را نشان دهد. تغییرات این AI ممکن است به زودی تصوری از خود را به عنوان تداوم در طول زمان ایجاد کند، در مورد خواسته ها تأمل کند، و از نظر اجتماعی تعامل برقرار کند و روابطی با انسان ها ایجاد کند.

اگر مصمم بود که هوش مصنوعی، حتی در حد کمی، حساس باشد، چه معنایی خواهد داشت؟

اگر هوش مصنوعی نشانه‌هایی از احساسات را نشان می‌دهد، به طور قابل قبولی درجاتی از وضعیت اخلاقی خواهد داشت. این بدان معناست که راه‌های معینی برای درمان آن وجود دارد که اشتباه است، درست همانطور که لگد زدن به سگ یا انجام عمل جراحی روی موش بدون بیهوشی توسط محققان پزشکی اشتباه است.

پیامدهای اخلاقی به این بستگی دارد که ما در مورد چه نوع و درجه ای از وضعیت اخلاقی صحبت می کنیم. در پایین ترین سطوح، ممکن است به این معنا باشد که ما نباید بیهوده باعث درد یا رنج آن شویم. در سطوح بالاتر، در میان چیزهای دیگر، ممکن است به این معنا باشد که ما باید ترجیحات آن را در نظر بگیریم و قبل از انجام کارهای خاصی با آن، باید رضایت آگاهانه آن را جویا شویم.

من روی این موضوع از اخلاق ذهن‌های دیجیتال کار کرده‌ام و سعی کرده‌ام دنیایی را در نقطه‌ای در آینده تصور کنم که در آن هم ذهن‌های دیجیتال و هم ذهن‌های انسانی با انواع و سطوح مختلف پیچیدگی وجود داشته باشد. من پرسیده ام: چگونه آنها به شیوه ای هماهنگ همزیستی می کنند؟ این کاملاً چالش برانگیز است زیرا فرضیات اساسی بسیاری در مورد وضعیت انسان وجود دارد که نیاز به بازنگری دارند.

برخی از آن مفروضات اساسی که برای تطبیق با هوش مصنوعی نیاز به بازاندیشی یا توسعه دارند چیست؟

در اینجا سه ​​مورد است. اول، مرگ: انسان ها یا مرده یا زنده هستند. موارد مرزی وجود دارد اما نسبتا نادر است. اما ذهن‌های دیجیتالی می‌توانند به راحتی متوقف شوند و بعداً دوباره راه‌اندازی شوند.

دوم، فردیت. در حالی که حتی دوقلوهای همسان کاملاً متمایز هستند، ذهن دیجیتال می تواند کپی دقیقی باشد.

و سوم، نیاز ما به کار. کارهای زیادی باید توسط انسان امروز انجام شود. با اتوماسیون کامل، این ممکن است دیگر ضروری نباشد.

آیا می توانید به من مثالی بزنید که چگونه این فرضیات تغییر یافته می تواند ما را از نظر اجتماعی آزمایش کند؟

نمونه بارز دیگر دموکراسی است. در کشورهای دموکراتیک، ما به شکلی از حکومت می بالیم که به همه مردم حق نظر می دهد. و معمولاً توسط یک نفر، یک رأی.

به آینده‌ای فکر کنید که در آن ذهن‌هایی وجود دارند که دقیقاً شبیه ذهن انسان‌ها هستند، با این تفاوت که روی رایانه‌ها پیاده‌سازی می‌شوند. چگونه حکومت دموکراتیک را گسترش می دهید تا آنها را نیز شامل شود؟ ممکن است فکر کنید، خوب، ما به هر هوش مصنوعی یک رای و سپس به هر انسان یک رای می دهیم. اما بعد متوجه می شوید که آنقدرها هم ساده نیست. اگر نرم افزار قابل کپی باشد چه؟

یک روز قبل از انتخابات، می توانید 10000 نسخه از یک هوش مصنوعی خاص تهیه کنید و 10000 رای بیشتر به دست آورید. یا اگر افرادی که هوش مصنوعی را می سازند بتوانند ارزش ها و اولویت های سیاسی هوش مصنوعی را انتخاب کنند، چه؟ یا اگر خیلی ثروتمند هستید، می توانید هوش مصنوعی زیادی بسازید. نفوذ شما می تواند متناسب با ثروت شما باشد.

بیش از 1000 رهبران و محققان فناوریاز جمله ایلان ماسک، اخیراً با نامه ای هشدار داده است که توسعه هوش مصنوعی کنترل نشده “خطرات عمیقی برای جامعه و بشریت” دارد. تهدید وجودی هوش مصنوعی چقدر معتبر است؟

من مدت‌ها بر این عقیده بودم که انتقال به ابرهوش ماشینی با خطرات مهمی از جمله خطرات وجودی همراه خواهد بود. این تغییر نکرده است. فکر می‌کنم جدول‌های زمانی در حال حاضر کوتاه‌تر از گذشته است.

و بهتر است خودمان را برای این چالش به شکلی دربیاوریم. من فکر می کنم ما باید کراس فیت استعاری را برای سه دهه گذشته انجام می دادیم. اما ما فقط روی مبل دراز کشیده‌ایم و در حال خوردن ذرت بوداده‌ایم، زمانی که نیاز داشتیم از طریق همسویی، اخلاقیات و حکمرانی ابر هوش بالقوه فکر کنیم. آن زمان از دست رفته ای است که هرگز به آن باز نمی گردیم.

می توانید در مورد آن چالش ها بیشتر بگویید؟ مهم ترین مسائلی که محققان، صنعت فناوری و سیاست گذاران باید در مورد آن فکر کنند، چیست؟

اول مشکل هم ترازی است. چگونه مطمئن می‌شوید که این سیستم‌های هوش مصنوعی که به طور فزاینده‌ای توانمند می‌سازیم، با آنچه افرادی که آنها را می‌سازند به دنبال دستیابی به آن هستند، همسو باشند؟ این یک مشکل فنی است.

سپس مشکل حاکمیت مطرح است. چیزی که شاید برای من مهم ترین چیز باشد این است که سعی می کنیم به روشی گسترده به این موضوع نزدیک شویم. این همه چیز در نهایت بزرگتر از هر یک از ما، یا هر شرکت یا حتی یک کشور است.

ما همچنین باید از طراحی عمدی هوش مصنوعی به گونه‌ای که تشخیص اینکه آیا آنها دارای موقعیت اخلاقی هستند یا نه، برای محققان دشوارتر می‌شود، مانند آموزش آنها برای انکار آگاه بودن یا انکار داشتن موقعیت اخلاقی خودداری کنیم. در حالی که ما قطعاً نمی‌توانیم خروجی کلامی سیستم‌های هوش مصنوعی کنونی را به‌عنوان واقعی بدانیم، باید فعالانه به دنبال نشانه‌های احتمالی مبنی بر اینکه آن‌ها ممکن است به درجه‌ای از احساس یا موقعیت اخلاقی دست یافته باشند – و نه تلاش برای سرکوب یا پنهان کردن آن، باشیم.


از اینکه مشترک هستید متشکرم

نسخه های گذشته خبرنامه را اینجا بخوانید.

اگر از مطالبی که می خوانید لذت می برید، لطفاً آن را به دیگران توصیه کنید. آنها می توانند در اینجا ثبت نام کنند. همه خبرنامه های مختص مشترکین ما را اینجا مرور کنید.

من دوست دارم نظرات شما را در مورد این خبرنامه ارسال کنید. لطفا نظرات و پیشنهادات خود را به [email protected] ایمیل کنید. شما هم می توانید من را دنبال کنید در توییتر.