فیس بوک می گوید استفاده از هوش مصنوعی برای کاهش سخنان نفرت انگیز بهتر می شود

روز پنجشنبه ، فیس بوک گفت که سیستم های هوش مصنوعی خود 94.7٪ از 22.1 میلیون قطعه محتوای سخنان نفرت انگیز را که در سه ماهه سوم سال 2020 از سایت اجتماعی حذف کرده بود ، شناسایی کردند. این در حالی است که 80.5 درصد از 6.9 میلیون محتوای AI را در همان سه ماهه قبل از آن گرفته است. در سال 2017 ، این شرکت توانست با استفاده از هوش مصنوعی به طور فعالانه سخنان نفرت انگیز را کشف کند – 24٪ از کل محتوای مربوط به نفرت که در آن زمان حذف می شد. این ارقام از آخرین نسخه گزارش اجرای استانداردهای جامعه است که این شرکت از ماه آگوست به صورت فصلی شروع به انتشار می کند.

این به روزرسانی چند روز پس از آن صورت گرفت كه مارك زاكربرگ مدیر عامل فیس بوك در كنگره در مورد مقررات اینترنت صحبت كرد ، در طی آن وی بارها به اعتماد این شركت به الگوریتم ها برای شناسایی محتوای تروریستی و استثمار كودكان قبل از مشاهده كسی اشاره كرد.
مانند بسیاری دیگر از شبکه های اجتماعی ، فیس بوک به هوش مصنوعی کمک می کند تا به خدمه ای از انسان ها کمک کند کوهی از محتوای همیشه در حال رشد را در سیستم عامل معروف و اینستاگرام خود که متعلق به خود است تعدیل کند. حذف پستها و تبلیغات قابل اعتراض کاربر یک کار پیچیده و پایان ناپذیر است ، تا حدی به این دلیل که مردم به خوبی درک می کنند که چه چیزی مثلاً یک نقاشی برهنه هنری را از یک عکس استثماری متمایز می کند یا اینکه چگونه کلمات و تصاویری که خودشان بی گناه به نظر می رسند ، می توانند هنگام جفت شدن آسیب زا باشد.
روز چهارشنبه ، مایک شروپفر ، مدیر ارشد فناوری فیس بوک ، با یک تماس ویدئویی با خبرنگاران ، در مورد برخی از جدیدترین ابزارهای هوش مصنوعی که فیس بوک برای پیدا کردن محتوای مضر قبل از ویروسی شدن استفاده می کند ، توضیح داد ، مانند یکی که از داده های آنلاین سیستم های فیس بوک برای بهبود استفاده می کند ، از یک مجموعه داده آفلاین. وی گفت که هدف او این است که این فن آوری را به جلو سوق دهد تا جایی که تعداد کمی از مردم محتوای قابل اعتراض را در شبکه اجتماعی ببینند. در گذشته ، فیس بوک به دلیل اعتماد بیش از حد به پیمانکاران انسانی مورد انتقاد قرار گرفته است ، که ماهیت کار آنها آنها را در معرض محتوایی قرار می دهد که دیدن آنها وحشتناک است و همچنین به دلیل اینکه هوش مصنوعی آن جریان های خشونت آمیز مانند New را نمی گیرد. تیراندازی در مسجد زلاند در مارس 2019.

شروفر گفت: “بدیهی است که من تا زمانی که کار ما تمام نشده باشد راضی نیستم.” “و کار ما تمام نشده است.”

اما پیچیده ترین محتوای AI برای درک آن چیزی است که به ظرافت و زمینه متکی است – نشانه هایی که کامپیوترها بر آن تسلط ندارند. شروفر گفت كه فیس بوك اكنون در حال كشف میك های متنفر است؛ این شرکت در بهار به امید کمک به محققان در بهبود قابلیت های شناسایی ، یک مجموعه داده در دسترس عموم در رابطه با چنین محتوایی را ارائه داد. وی به عنوان مثالی از محتوایی که می تواند آسیب زا باشد اما ممکن است زیر رادار AI پرواز کند ، تصویری از قبرستانی را که روی آن نوشته شده است “شما اینجا هستید تعلق دارید” ذکر کرد.

وی خاطرنشان کرد: “اگر من متنی را پوشانده باشم که می گوید:” تو اینجا هستی “، و تصویر پس زمینه یک زمین بازی است ، خوب است. اگر این یک قبرستان باشد ، ممکن است به عنوان نفرت از شما ، به عنوان یک طبقه هدف افراد ، تلقی شود.” بیرون

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>