وقتی با یک چت بات صحبت می کنید، چه کسی گوش می دهد؟


نیویورک
CNN

از آنجایی که بخش فناوری برای توسعه و استقرار ربات‌های چت جدید هوش مصنوعی جدید رقابت می‌کند، پذیرش گسترده آن‌ها مجموعه جدیدی از نگرانی‌های حفظ حریم خصوصی داده‌ها را در میان برخی شرکت‌ها، تنظیم‌کننده‌ها و ناظران صنعت برانگیخته است.

برخی از شرکت‌ها، از جمله JPMorgan Chase (JPM)، استفاده کارمندان از ChatGPT، چت ربات هوش مصنوعی ویروسی را که برای اولین بار مسابقه تسلیحاتی هوش مصنوعی Big Tech را آغاز کرد، به دلیل نگرانی‌های مربوط به رعایت موارد مرتبط با استفاده کارکنان از نرم‌افزار شخص ثالث، محدود کرده‌اند.

تنها زمانی که OpenAI، شرکت سازنده ChatGPT، فاش کرد که باید این ابزار را به طور موقت در 20 مارس آفلاین کند تا مشکلی را برطرف کند که به برخی از کاربران اجازه می‌دهد خطوط موضوع را از تاریخچه چت سایر کاربران ببینند، به نگرانی‌های افزایش حریم خصوصی افزود.

همین اشکال که اکنون برطرف شده است، همچنین این امکان را برای برخی از کاربران فراهم می کند که نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، چهار رقم آخر (فقط) شماره کارت اعتباری و تاریخ انقضای کارت اعتباری کاربر فعال دیگر را ببینند. OpenAI در یک پست وبلاگ گفت.

و همین هفته گذشته، رگولاتورها در ایتالیا ممنوعیت موقت ChatGPT را در این کشور صادر کردند و دلیل آن نگرانی‌های مربوط به حفظ حریم خصوصی پس از افشای OpenAI این نقض بود.

مارک مک کری، رئیس مشترک بخش حریم خصوصی و امنیت داده در شرکت حقوقی فاکس روچیلد LLP، به سی‌ان‌ان گفت: ملاحظات حریم خصوصی در مورد چیزی مانند ChatGPT را نمی‌توان اغراق کرد. “مثل یک جعبه سیاه است.”

با ChatGPT، که در اواخر نوامبر برای عموم راه اندازی شد، کاربران می توانند به سادگی با تایپ کردن دستورات، مقالات، داستان ها و متن آهنگ تولید کنند.

گوگل و مایکروسافت از آن زمان تا کنون ابزارهای هوش مصنوعی را نیز عرضه کرده‌اند که به همان شیوه کار می‌کنند و با مدل‌های زبان بزرگی که بر روی حجم وسیعی از داده‌های آنلاین آموزش دیده‌اند، قدرت می‌گیرند.

وقتی کاربران اطلاعاتی را در این ابزار وارد می‌کنند، مک کری گفت: «شما نمی‌دانید چگونه از آن استفاده می‌شود». این نگرانی به ویژه برای شرکت ها ایجاد می کند. مک کری گفت، همانطور که تعداد بیشتری از کارمندان به طور معمول از این ابزارها برای کمک به ایمیل های کاری یا یادداشت های جلسه استفاده می کنند، “من فکر می کنم فرصت برای اسرار تجاری شرکت برای رها شدن در این هوش مصنوعی های مختلف افزایش می یابد.”

استیو میلز، مدیر ارشد اخلاق هوش مصنوعی در گروه مشاوره بوستون، به سی‌ان‌ان گفت که بزرگترین نگرانی در مورد حریم خصوصی که بیشتر شرکت‌ها در مورد این ابزارها دارند، «افشای سهوی اطلاعات حساس» است.

میلز گفت: “شما همه این کارمندان را دارید که کارهایی انجام می دهند که می تواند بسیار بی ضرر به نظر برسد، مانند “اوه، من می توانم از این برای خلاصه کردن یادداشت های یک جلسه استفاده کنم.” اما با چسباندن یادداشت‌های جلسه در اعلان، ناگهان، به طور بالقوه، یک دسته کامل از اطلاعات حساس را فاش می‌کنید.»

05 سهام تلفن ChatGPT

میلز افزود، اگر داده‌های ورودی افراد برای آموزش بیشتر این ابزارهای هوش مصنوعی استفاده شود، همانطور که بسیاری از شرکت‌های پشت این ابزارها اعلام کرده‌اند، پس شما کنترل آن داده‌ها را از دست داده‌اید و شخص دیگری آن را در اختیار دارد.

OpenAI، شرکتی که توسط مایکروسافت پشتیبان ChatGPT است، در سیاست حفظ حریم خصوصی خود می گوید که انواع اطلاعات شخصی را از افرادی که از خدمات آن استفاده می کنند جمع آوری می کند. می‌گوید ممکن است از این اطلاعات برای بهبود یا تجزیه و تحلیل خدمات، انجام تحقیقات، برقراری ارتباط با کاربران، و توسعه برنامه‌ها و خدمات جدید و موارد دیگر استفاده کند.

سیاست حفظ حریم خصوصی بیان می کند که ممکن است اطلاعات شخصی را بدون اطلاع بیشتر به کاربر در اختیار اشخاص ثالث قرار دهد، مگر اینکه طبق قانون الزامی باشد. اگر سیاست حفظ حریم خصوصی بیش از 2000 کلمه کمی مبهم به نظر می رسد، احتمالاً به این دلیل است که این امر تقریباً به یک هنجار صنعت در عصر اینترنت تبدیل شده است. OpenAI همچنین دارای یک سند شرایط استفاده جداگانه است که بیشترین مسئولیت را بر عهده کاربر می گذارد تا اقدامات مناسب را هنگام درگیر شدن با ابزارهای خود انجام دهد.

OpenAI همچنین روز چهارشنبه یک پست وبلاگ جدید منتشر کرد که رویکرد خود را در مورد ایمنی هوش مصنوعی تشریح کرد. در وبلاگ پست آمده است: «ما از داده‌ها برای فروش خدمات، تبلیغات، یا ایجاد نمایه‌های افراد استفاده نمی‌کنیم – ما از داده‌ها استفاده می‌کنیم تا مدل‌های خود را برای مردم مفیدتر کنیم». برای مثال، ChatGPT با آموزش بیشتر در مورد مکالماتی که افراد با آن دارند، بهبود می یابد.

سیاست حفظ حریم خصوصی گوگل، که شامل ابزار Bard آن نیز می شود، به همین ترتیب طولانی است و شرایط خدمات اضافی برای کاربران هوش مصنوعی مولد خود دارد. این شرکت بیان می کند که برای کمک به بهبود Bard و در عین حال محافظت از حریم خصوصی کاربران، “ما زیر مجموعه ای از مکالمات را انتخاب می کنیم و از ابزارهای خودکار برای کمک به حذف اطلاعات شناسایی شخصی استفاده می کنیم.”

این شرکت در یک پرسش متداول جداگانه برای Bard می‌گوید: «این مکالمات نمونه توسط بازبین‌های آموزش دیده قابل بازبینی هستند و تا ۳ سال جدا از حساب Google شما نگهداری می‌شوند. این شرکت همچنین هشدار می دهد: “اطلاعاتی را که می توان برای شناسایی شما یا دیگران در مکالمات بارد خود استفاده کرد، وارد نکنید.” پرسش‌های متداول همچنین بیان می‌کند که از مکالمات بارد برای مقاصد تبلیغاتی استفاده نمی‌شود و “ما به وضوح هرگونه تغییر در این رویکرد را در آینده اعلام خواهیم کرد.”

گوگل همچنین به سی‌ان‌ان گفت که کاربران می‌توانند «به راحتی انتخاب کنند که از Bard استفاده کنند بدون اینکه مکالمات خود را در حساب Google خود ذخیره کنند». کاربران Bard همچنین می توانند از طریق این پیوند، درخواست های خود را بررسی کنند یا مکالمات Bard را حذف کنند. گوگل گفت: «ما همچنین حفاظ‌هایی داریم که برای جلوگیری از گنجاندن اطلاعات شناسایی شخصی در پاسخ‌های Bard طراحی شده‌اند.

میلز به سی ان ان گفت: «ما هنوز در حال یادگیری این هستیم که دقیقاً چگونه همه اینها کار می کند. “شما به طور کامل نمی دانید که چگونه اطلاعاتی را وارد می کنید، اگر برای آموزش مجدد این مدل ها استفاده می شود، چگونه به عنوان خروجی در نقطه ای ظاهر می شود، یا اینکه آیا می شود.”

میلز اضافه کرد که گاهی اوقات کاربران و توسعه دهندگان حتی تا زمانی که خیلی دیر نشده، متوجه خطرات حریم خصوصی که در کمین فناوری های جدید وجود دارد، نمی شوند. نمونه‌ای که او به آن اشاره کرد ویژگی‌های تکمیل خودکار اولیه بود که برخی از آن‌ها منجر به عواقب ناخواسته‌ای مانند تکمیل شماره تامین اجتماعی که کاربر شروع به تایپ آن کرد – اغلب باعث تعجب و هشدار کاربر شد.

در نهایت، میلز گفت: «نظر من در حال حاضر این است که شما نباید چیزی را در این ابزار قرار دهید که نمی‌خواهید تصور کنید قرار است با دیگران به اشتراک گذاشته شود.»