نیویورک
CNN
–
از آنجایی که بخش فناوری برای توسعه و استقرار رباتهای چت جدید هوش مصنوعی جدید رقابت میکند، پذیرش گسترده آنها مجموعه جدیدی از نگرانیهای حفظ حریم خصوصی دادهها را در میان برخی شرکتها، تنظیمکنندهها و ناظران صنعت برانگیخته است.
برخی از شرکتها، از جمله JPMorgan Chase (JPM)، استفاده کارمندان از ChatGPT، چت ربات هوش مصنوعی ویروسی را که برای اولین بار مسابقه تسلیحاتی هوش مصنوعی Big Tech را آغاز کرد، به دلیل نگرانیهای مربوط به رعایت موارد مرتبط با استفاده کارکنان از نرمافزار شخص ثالث، محدود کردهاند.
تنها زمانی که OpenAI، شرکت سازنده ChatGPT، فاش کرد که باید این ابزار را به طور موقت در 20 مارس آفلاین کند تا مشکلی را برطرف کند که به برخی از کاربران اجازه میدهد خطوط موضوع را از تاریخچه چت سایر کاربران ببینند، به نگرانیهای افزایش حریم خصوصی افزود.
همین اشکال که اکنون برطرف شده است، همچنین این امکان را برای برخی از کاربران فراهم می کند که نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، چهار رقم آخر (فقط) شماره کارت اعتباری و تاریخ انقضای کارت اعتباری کاربر فعال دیگر را ببینند. OpenAI در یک پست وبلاگ گفت.
و همین هفته گذشته، رگولاتورها در ایتالیا ممنوعیت موقت ChatGPT را در این کشور صادر کردند و دلیل آن نگرانیهای مربوط به حفظ حریم خصوصی پس از افشای OpenAI این نقض بود.
مارک مک کری، رئیس مشترک بخش حریم خصوصی و امنیت داده در شرکت حقوقی فاکس روچیلد LLP، به سیانان گفت: ملاحظات حریم خصوصی در مورد چیزی مانند ChatGPT را نمیتوان اغراق کرد. “مثل یک جعبه سیاه است.”
با ChatGPT، که در اواخر نوامبر برای عموم راه اندازی شد، کاربران می توانند به سادگی با تایپ کردن دستورات، مقالات، داستان ها و متن آهنگ تولید کنند.
گوگل و مایکروسافت از آن زمان تا کنون ابزارهای هوش مصنوعی را نیز عرضه کردهاند که به همان شیوه کار میکنند و با مدلهای زبان بزرگی که بر روی حجم وسیعی از دادههای آنلاین آموزش دیدهاند، قدرت میگیرند.
وقتی کاربران اطلاعاتی را در این ابزار وارد میکنند، مک کری گفت: «شما نمیدانید چگونه از آن استفاده میشود». این نگرانی به ویژه برای شرکت ها ایجاد می کند. مک کری گفت، همانطور که تعداد بیشتری از کارمندان به طور معمول از این ابزارها برای کمک به ایمیل های کاری یا یادداشت های جلسه استفاده می کنند، “من فکر می کنم فرصت برای اسرار تجاری شرکت برای رها شدن در این هوش مصنوعی های مختلف افزایش می یابد.”
استیو میلز، مدیر ارشد اخلاق هوش مصنوعی در گروه مشاوره بوستون، به سیانان گفت که بزرگترین نگرانی در مورد حریم خصوصی که بیشتر شرکتها در مورد این ابزارها دارند، «افشای سهوی اطلاعات حساس» است.
میلز گفت: “شما همه این کارمندان را دارید که کارهایی انجام می دهند که می تواند بسیار بی ضرر به نظر برسد، مانند “اوه، من می توانم از این برای خلاصه کردن یادداشت های یک جلسه استفاده کنم.” اما با چسباندن یادداشتهای جلسه در اعلان، ناگهان، به طور بالقوه، یک دسته کامل از اطلاعات حساس را فاش میکنید.»
میلز افزود، اگر دادههای ورودی افراد برای آموزش بیشتر این ابزارهای هوش مصنوعی استفاده شود، همانطور که بسیاری از شرکتهای پشت این ابزارها اعلام کردهاند، پس شما کنترل آن دادهها را از دست دادهاید و شخص دیگری آن را در اختیار دارد.
OpenAI، شرکتی که توسط مایکروسافت پشتیبان ChatGPT است، در سیاست حفظ حریم خصوصی خود می گوید که انواع اطلاعات شخصی را از افرادی که از خدمات آن استفاده می کنند جمع آوری می کند. میگوید ممکن است از این اطلاعات برای بهبود یا تجزیه و تحلیل خدمات، انجام تحقیقات، برقراری ارتباط با کاربران، و توسعه برنامهها و خدمات جدید و موارد دیگر استفاده کند.
سیاست حفظ حریم خصوصی بیان می کند که ممکن است اطلاعات شخصی را بدون اطلاع بیشتر به کاربر در اختیار اشخاص ثالث قرار دهد، مگر اینکه طبق قانون الزامی باشد. اگر سیاست حفظ حریم خصوصی بیش از 2000 کلمه کمی مبهم به نظر می رسد، احتمالاً به این دلیل است که این امر تقریباً به یک هنجار صنعت در عصر اینترنت تبدیل شده است. OpenAI همچنین دارای یک سند شرایط استفاده جداگانه است که بیشترین مسئولیت را بر عهده کاربر می گذارد تا اقدامات مناسب را هنگام درگیر شدن با ابزارهای خود انجام دهد.
OpenAI همچنین روز چهارشنبه یک پست وبلاگ جدید منتشر کرد که رویکرد خود را در مورد ایمنی هوش مصنوعی تشریح کرد. در وبلاگ پست آمده است: «ما از دادهها برای فروش خدمات، تبلیغات، یا ایجاد نمایههای افراد استفاده نمیکنیم – ما از دادهها استفاده میکنیم تا مدلهای خود را برای مردم مفیدتر کنیم». برای مثال، ChatGPT با آموزش بیشتر در مورد مکالماتی که افراد با آن دارند، بهبود می یابد.
سیاست حفظ حریم خصوصی گوگل، که شامل ابزار Bard آن نیز می شود، به همین ترتیب طولانی است و شرایط خدمات اضافی برای کاربران هوش مصنوعی مولد خود دارد. این شرکت بیان می کند که برای کمک به بهبود Bard و در عین حال محافظت از حریم خصوصی کاربران، “ما زیر مجموعه ای از مکالمات را انتخاب می کنیم و از ابزارهای خودکار برای کمک به حذف اطلاعات شناسایی شخصی استفاده می کنیم.”
این شرکت در یک پرسش متداول جداگانه برای Bard میگوید: «این مکالمات نمونه توسط بازبینهای آموزش دیده قابل بازبینی هستند و تا ۳ سال جدا از حساب Google شما نگهداری میشوند. این شرکت همچنین هشدار می دهد: “اطلاعاتی را که می توان برای شناسایی شما یا دیگران در مکالمات بارد خود استفاده کرد، وارد نکنید.” پرسشهای متداول همچنین بیان میکند که از مکالمات بارد برای مقاصد تبلیغاتی استفاده نمیشود و “ما به وضوح هرگونه تغییر در این رویکرد را در آینده اعلام خواهیم کرد.”
گوگل همچنین به سیانان گفت که کاربران میتوانند «به راحتی انتخاب کنند که از Bard استفاده کنند بدون اینکه مکالمات خود را در حساب Google خود ذخیره کنند». کاربران Bard همچنین می توانند از طریق این پیوند، درخواست های خود را بررسی کنند یا مکالمات Bard را حذف کنند. گوگل گفت: «ما همچنین حفاظهایی داریم که برای جلوگیری از گنجاندن اطلاعات شناسایی شخصی در پاسخهای Bard طراحی شدهاند.
میلز به سی ان ان گفت: «ما هنوز در حال یادگیری این هستیم که دقیقاً چگونه همه اینها کار می کند. “شما به طور کامل نمی دانید که چگونه اطلاعاتی را وارد می کنید، اگر برای آموزش مجدد این مدل ها استفاده می شود، چگونه به عنوان خروجی در نقطه ای ظاهر می شود، یا اینکه آیا می شود.”
میلز اضافه کرد که گاهی اوقات کاربران و توسعه دهندگان حتی تا زمانی که خیلی دیر نشده، متوجه خطرات حریم خصوصی که در کمین فناوری های جدید وجود دارد، نمی شوند. نمونهای که او به آن اشاره کرد ویژگیهای تکمیل خودکار اولیه بود که برخی از آنها منجر به عواقب ناخواستهای مانند تکمیل شماره تامین اجتماعی که کاربر شروع به تایپ آن کرد – اغلب باعث تعجب و هشدار کاربر شد.
در نهایت، میلز گفت: «نظر من در حال حاضر این است که شما نباید چیزی را در این ابزار قرار دهید که نمیخواهید تصور کنید قرار است با دیگران به اشتراک گذاشته شود.»