خودداری از کارشناسان طنین انداز است: هوش مصنوعی حساس نیست.
این نوعی اصلاح کننده برای تبلیغاتی است که چت ربات های هوش مصنوعی به خصوص در ماه های اخیر ایجاد کرده اند. حداقل دو رویداد خبری به طور خاص مفهوم چت باتهای خودآگاه را وارد تصورات جمعی ما کردهاند.
سال گذشته، یکی از کارمندان سابق گوگل نگرانی هایی را در مورد آنچه که به گفته او شواهدی از هوش مصنوعی است، مطرح کرد. و سپس، در فوریه امسال، مکالمه ای بین چت بات مایکروسافت و همکارم کوین روز در مورد عشق و تمایل به انسان شدن، ویروسی شد و اینترنت را به وحشت انداخت.
در پاسخ، کارشناسان و روزنامه نگاران بارها به مردم یادآوری کرده اند که چت ربات های هوش مصنوعی هوشیار نیستند. اگر آنها می توانند به طرز وحشتناکی انسانی به نظر برسند، این فقط به این دلیل است که آنها یاد گرفته اند که چگونه از حجم عظیمی از متن در اینترنت – از وبلاگ های غذایی گرفته تا پست های قدیمی فیس بوک گرفته تا مدخل های ویکی پدیا – شبیه ما باشند. کارشناسان می گویند که آنها واقعاً مقلدهای خوبی هستند، اما بدون احساس.
رهبران صنعت حداقل در حال حاضر با این ارزیابی موافق هستند. اما بسیاری اصرار دارند که هوش مصنوعی روزی قادر به انجام هر کاری است که مغز انسان می تواند انجام دهد.
نیک بوستروم دهه ها را صرف آماده سازی برای آن روز کرده است. بوستروم فیلسوف و مدیر موسسه آینده بشریت در دانشگاه آکسفورد است. او همچنین نویسنده کتاب «فوق هوش» است. این وظیفه اوست که آیندههای احتمالی را تصور کند، ریسکها را تعیین کند و زمینههای مفهومی را برای نحوه هدایت آنها فراهم کند. و یکی از دیرینه ترین علایق او این است که چگونه دنیایی پر از ذهن های دیجیتال فوق هوشمند را اداره کنیم.
من با بوستروم در مورد چشم انداز هوش مصنوعی و اینکه چگونه می تواند مفروضات اساسی ما در مورد خودمان و جوامعمان را تغییر دهد صحبت کردم.
این گفتگو برای وضوح و طولانی بودن ویرایش شده است.
بسیاری از کارشناسان اصرار دارند که چت ربات ها حساس یا آگاه نیستند – دو کلمه ای که آگاهی از دنیای اطراف را توصیف می کند. آیا با این ارزیابی موافقید که چت باتها فقط ورودیها را باز میگردانند؟
آگاهی امری چند بعدی، مبهم و گیج کننده است. و تعریف یا تعیین آن سخت است. تئوری های مختلفی در مورد آگاهی وجود دارد که عصب شناسان و فیلسوفان در طول سال ها توسعه داده اند. و هیچ اتفاق نظری در مورد اینکه کدام یک درست است وجود ندارد. محققان میتوانند سعی کنند از این نظریههای مختلف برای آزمایش سیستمهای هوش مصنوعی برای سنجش احساسات استفاده کنند.
اما من این دیدگاه را دارم که احساس یک امر درجه است. من کاملاً مایل هستم که مقادیر بسیار کمی از درجه را به طیف گسترده ای از سیستم ها، از جمله حیوانات، نسبت دهم. اگر اعتراف می کنید که این یک چیز همه یا هیچ نیست، آنقدر هم دراماتیک نیست که بگوییم برخی از این دستیاران ممکن است به طور منطقی کاندیدایی برای داشتن درجاتی از احساسات باشند.
من میتوانم ابتدا بگویم با این مدلهای زبانی بزرگ، من همچنین فکر میکنم این که بگوییم آنها صرفاً متنی را باز میگردانند، عدالت را رعایت نمیکنند. آنها اجمالی از خلاقیت، بینش و درک را نشان می دهند که کاملاً چشمگیر است و ممکن است مبانی استدلال را نشان دهد. تغییرات این AI ممکن است به زودی تصوری از خود را به عنوان تداوم در طول زمان ایجاد کند، در مورد خواسته ها تأمل کند، و از نظر اجتماعی تعامل برقرار کند و روابطی با انسان ها ایجاد کند.
نسل جدیدی از چت بات ها
یک دنیای جدید شجاع یک محصول جدید از چت رباتهای مجهز به هوش مصنوعی، کشمکش را برانگیخته است تا مشخص شود آیا این فناوری میتواند اقتصاد اینترنت را به هم بزند، نیروگاههای امروزی را به موجودات تبدیل کند و غولهای بعدی این صنعت را ایجاد کند. در اینجا ربات هایی هستند که باید بدانید:
اگر مصمم بود که هوش مصنوعی، حتی در حد کمی، حساس باشد، چه معنایی خواهد داشت؟
اگر هوش مصنوعی نشانههایی از احساسات را نشان میدهد، به طور قابل قبولی درجاتی از وضعیت اخلاقی خواهد داشت. این بدان معناست که راههای معینی برای درمان آن وجود دارد که اشتباه است، درست همانطور که لگد زدن به سگ یا انجام عمل جراحی روی موش بدون بیهوشی توسط محققان پزشکی اشتباه است.
پیامدهای اخلاقی به این بستگی دارد که ما در مورد چه نوع و درجه ای از وضعیت اخلاقی صحبت می کنیم. در پایین ترین سطوح، ممکن است به این معنا باشد که ما نباید بیهوده باعث درد یا رنج آن شویم. در سطوح بالاتر، در میان چیزهای دیگر، ممکن است به این معنا باشد که ما باید ترجیحات آن را در نظر بگیریم و قبل از انجام کارهای خاصی با آن، باید رضایت آگاهانه آن را جویا شویم.
من روی این موضوع از اخلاق ذهنهای دیجیتال کار کردهام و سعی کردهام دنیایی را در نقطهای در آینده تصور کنم که در آن هم ذهنهای دیجیتال و هم ذهنهای انسانی با انواع و سطوح مختلف پیچیدگی وجود داشته باشد. من پرسیده ام: چگونه آنها به شیوه ای هماهنگ همزیستی می کنند؟ این کاملاً چالش برانگیز است زیرا فرضیات اساسی بسیاری در مورد وضعیت انسان وجود دارد که نیاز به بازنگری دارند.
برخی از آن مفروضات اساسی که برای تطبیق با هوش مصنوعی نیاز به بازاندیشی یا توسعه دارند چیست؟
در اینجا سه مورد است. اول، مرگ: انسان ها یا مرده یا زنده هستند. موارد مرزی وجود دارد اما نسبتا نادر است. اما ذهنهای دیجیتالی میتوانند به راحتی متوقف شوند و بعداً دوباره راهاندازی شوند.
دوم، فردیت. در حالی که حتی دوقلوهای همسان کاملاً متمایز هستند، ذهن دیجیتال می تواند کپی دقیقی باشد.
و سوم، نیاز ما به کار. کارهای زیادی باید توسط انسان امروز انجام شود. با اتوماسیون کامل، این ممکن است دیگر ضروری نباشد.
آیا می توانید به من مثالی بزنید که چگونه این فرضیات تغییر یافته می تواند ما را از نظر اجتماعی آزمایش کند؟
نمونه بارز دیگر دموکراسی است. در کشورهای دموکراتیک، ما به شکلی از حکومت می بالیم که به همه مردم حق نظر می دهد. و معمولاً توسط یک نفر، یک رأی.
به آیندهای فکر کنید که در آن ذهنهایی وجود دارند که دقیقاً شبیه ذهن انسانها هستند، با این تفاوت که روی رایانهها پیادهسازی میشوند. چگونه حکومت دموکراتیک را گسترش می دهید تا آنها را نیز شامل شود؟ ممکن است فکر کنید، خوب، ما به هر هوش مصنوعی یک رای و سپس به هر انسان یک رای می دهیم. اما بعد متوجه می شوید که آنقدرها هم ساده نیست. اگر نرم افزار قابل کپی باشد چه؟
یک روز قبل از انتخابات، می توانید 10000 نسخه از یک هوش مصنوعی خاص تهیه کنید و 10000 رای بیشتر به دست آورید. یا اگر افرادی که هوش مصنوعی را می سازند بتوانند ارزش ها و اولویت های سیاسی هوش مصنوعی را انتخاب کنند، چه؟ یا اگر خیلی ثروتمند هستید، می توانید هوش مصنوعی زیادی بسازید. نفوذ شما می تواند متناسب با ثروت شما باشد.
بیش از 1000 رهبران و محققان فناوریاز جمله ایلان ماسک، اخیراً با نامه ای هشدار داده است که توسعه هوش مصنوعی کنترل نشده “خطرات عمیقی برای جامعه و بشریت” دارد. تهدید وجودی هوش مصنوعی چقدر معتبر است؟
من مدتها بر این عقیده بودم که انتقال به ابرهوش ماشینی با خطرات مهمی از جمله خطرات وجودی همراه خواهد بود. این تغییر نکرده است. فکر میکنم جدولهای زمانی در حال حاضر کوتاهتر از گذشته است.
و بهتر است خودمان را برای این چالش به شکلی دربیاوریم. من فکر می کنم ما باید کراس فیت استعاری را برای سه دهه گذشته انجام می دادیم. اما ما فقط روی مبل دراز کشیدهایم و در حال خوردن ذرت بودادهایم، زمانی که نیاز داشتیم از طریق همسویی، اخلاقیات و حکمرانی ابر هوش بالقوه فکر کنیم. آن زمان از دست رفته ای است که هرگز به آن باز نمی گردیم.
می توانید در مورد آن چالش ها بیشتر بگویید؟ مهم ترین مسائلی که محققان، صنعت فناوری و سیاست گذاران باید در مورد آن فکر کنند، چیست؟
اول مشکل هم ترازی است. چگونه مطمئن میشوید که این سیستمهای هوش مصنوعی که به طور فزایندهای توانمند میسازیم، با آنچه افرادی که آنها را میسازند به دنبال دستیابی به آن هستند، همسو باشند؟ این یک مشکل فنی است.
سپس مشکل حاکمیت مطرح است. چیزی که شاید برای من مهم ترین چیز باشد این است که سعی می کنیم به روشی گسترده به این موضوع نزدیک شویم. این همه چیز در نهایت بزرگتر از هر یک از ما، یا هر شرکت یا حتی یک کشور است.
ما همچنین باید از طراحی عمدی هوش مصنوعی به گونهای که تشخیص اینکه آیا آنها دارای موقعیت اخلاقی هستند یا نه، برای محققان دشوارتر میشود، مانند آموزش آنها برای انکار آگاه بودن یا انکار داشتن موقعیت اخلاقی خودداری کنیم. در حالی که ما قطعاً نمیتوانیم خروجی کلامی سیستمهای هوش مصنوعی کنونی را بهعنوان واقعی بدانیم، باید فعالانه به دنبال نشانههای احتمالی مبنی بر اینکه آنها ممکن است به درجهای از احساس یا موقعیت اخلاقی دست یافته باشند – و نه تلاش برای سرکوب یا پنهان کردن آن، باشیم.
از اینکه مشترک هستید متشکرم
نسخه های گذشته خبرنامه را اینجا بخوانید.
اگر از مطالبی که می خوانید لذت می برید، لطفاً آن را به دیگران توصیه کنید. آنها می توانند در اینجا ثبت نام کنند. همه خبرنامه های مختص مشترکین ما را اینجا مرور کنید.
من دوست دارم نظرات شما را در مورد این خبرنامه ارسال کنید. لطفا نظرات و پیشنهادات خود را به [email protected] ایمیل کنید. شما هم می توانید من را دنبال کنید در توییتر.