Facebook حسابرسی در معرض الگوریتم تعصبات

X

داستان جریان

مقالات اخیر

Facebook این هفته منتشر شد و نتایج حاصل از آن مدتها در انتظار حقوق مدنی حسابرسیبود که دو سال در ساخت. در حالی که بسیاری از این گزارش با تمرکز بر مسائل مربوط به محل کار تنوع و محتوای سیاست های کل یک فصل اختصاص داده شده به الگوریتمی تعصب و مراجع به شرکت در حال رشد تکیه بر هوش مصنوعی متوسط پلت فرم آن بافته شده است که در طول این گزارش 89 صفحات. به عنوان دره سیلیکون به طور فزاینده ای outsources سانسور به مات هوش مصنوعی و الگوریتم های آنچه که ممکن است عواقب ناخواسته برای دموکراسی است ؟

مانند بسیاری از دره سیلیکون Facebook اتحاد با عجله به جای آن ارتش ده ها هزار انسان محتوای مدیران با هوش مصنوعی الگوریتم. در علاوه بر این به دراماتیک صرفه جویی در هزینه های هوش مصنوعی در حد اعتدال است و مقیاس پذیر اجازه می دهد این شرکت به مرور در حال رشد در صد از آنچه که کاربران آن می گویند و به اشتراک گذاری بر روی پلت فرم آن است.

کلمه “الگوریتم” به نظر می رسد 73 بار در Facebook به گزارش معنابخش چگونه AI مرکزی تبدیل شده به این شرکت در آینده است. درست یک سال پیش 65 درصد از گفتار نفرت نوشته های این شرکت برداشته شد و برای اولین بار شناسایی شده توسط یکی از الگوریتم های قبل از هر انسان گزارش شده آن است. در ماه مارس این سال افزایش یافت که تعداد 89 درصد.

بر اساس این گزارش Facebook “حذف برخی از پست ها به صورت خودکار, اما تنها زمانی که محتوای هر دو یکسان و یا نزدیک به یکسان برای متن و یا تصاویر را قبلا حذف محتوای آن را بررسی تیم به عنوان نقض استانداردهای جامعه و یا که در آن مطالب بسیار نزدیک مسابقات حملات رایج است که نقض سیاست. … خودکار حذف تنها به تازگی تبدیل به ممکن است به دلیل سیستم های خودکار آموزش دیده اند در صدها نفر از هزاران نفر از نمونه های مختلف از نقض محتوا و حملات مشترک. … در تمام موارد دیگر که سیستم های خود فعالانه شناسایی پتانسیل سخنرانی نفرت محتوا است که هنوز هم به آن فرستاده می شود [انسان] نقد و بررسی تیم را به یک تصمیم نهایی.”

خودکار حذف reposts از گذشته حذف شده بیان نفرت است شبیه به دفاع از تروریسم شناخته شده و یا بهرهکشی از کودکان تصاویر شرکت استفاده می کند و نسبتا uncontroversial جلوگیری از کاربران تنها از ترجمه که قبلا ممنوع محتوا.

در عین حال اذعان است که این شرکت در حال حاضر فراتر از این برای حذف “محتوای بسیار نزدیک مطابقت[ing] حملات رایج است که نقض سیاست” نشان می دهد که Facebook الگوریتم در حال حاضر در واقع تصمیم خود را در مورد چه نوع از گفتار ممنوع کرده است. که تقریبا 90 درصد از این شرکت را بیان نفرت حذف شدند آغاز شده توسط یک الگوریتم به معنی این جعبه سیاه از نرم افزار کد در حال حاضر تدوین این عملا “سخنرانی قوانین” از جامعه مدرن است.

با وجود قدرت بسیار زیادی این الگوریتم در میان شرکت حفاظت اسرار تجاری و حتی سیاستگذاران ایالات متحده نگهداری می شود در تاریکی در عملکرد خود را. حتی وقتی که می آید به اساسی ترین جزئیات چگونه اغلب الگوریتم در اشتباه هستند و یا چه مقدار از آنها را از دست ندهید, رسانه های اجتماعی شرکت های آزادی تنها دقت در اظهارات و کاهش به نظر وقتی پرسیده شد که برای این نوع از استاندارد صنعت آمار که اجازه بیشتر موشکافی دقت خود را.

فصل 6 از Facebook را ممیزی باز می شود با اذعان به این که “هوش مصنوعی است که اغلب به عنوان هدف علمی و دقیق, اما در بسیاری از موارد آن است. الگوریتم های ایجاد شده توسط افرادی که به ناچار باید تعصبات و مفروضات و کسانی که تعصبات تزریق می شود می تواند به الگوریتم از طریق تصمیم گیری در مورد آنچه که اطلاعات مهم و یا چگونه الگوریتم های ساخت یافته و با اعتماد داده است که نشان دهنده گذشته شیوه های موجود و یا تاریخی نابرابری فرضیات یا کلیشه.” این فصل می افزاید که “به عنوان الگوریتم های تبدیل همه جا بیشتر در جامعه ما آن را تبدیل به طور فزاینده ای ضروری است برای اطمینان حاصل شود که آنها عادلانه و بی طرفانه و غیر تبعیض آمیز و که آنها نه تنها بزرگ قبل از کلیشه های موجود و یا نابرابری.”

در حالی که Facebook ساخته شده است تعدادی از ابزار و گردش داخلی را به تلاش برای گرفتن تعصب مسائل در آن الگوریتم های حسابرسی گزارش اذعان دارد که این ابزار تنها می تواند کمک بسیار. واقعا کاهش تعصب نیاز به یک نیروی کار متنوع است که می توانید انواع تعصبات چنین ابزار نیست طراحی شده را به تصرف خود. به گزارش یادداشت های “یک بخش کلیدی از رانندگی انصاف در الگوریتم در تضمین این شرکت متمرکز بر افزایش تنوع از مردم در حال کار و در حال توسعه FB الگوریتم.”

چرا نرم افزار ابزار و تعصب تجزیه و تحلیل به اندازه کافی به واقعا به حداقل رساندن الگوریتمی bias ؟ چرا که بدون به اندازه کافی نیروی کار متنوع از تعصبات یافت می شود توسط کسانی که ممیزی ممکن است دیده نمی شود به عنوان مشکلات.

به عنوان Facebook نژادها برای محدود آن قابل قبول گفتار قوانین و پرچم پست توسط رئیس جمهور تهمت و دیگر جمهوری خواهان آن الگوریتم را به نوبه خود به طور فزاینده ای به یادگیری پرچم پست توسط محافظه کاران به عنوان “گفتار نفرت.” هوش مصنوعی و انصاف و حسابرسی ممکن است پرچم که الگوریتم به شدت مغرضانه در برابر محافظه کاران اما اگر Facebook نیروی کار کج تا حد زیادی لیبرال که تعصب ممکن است در نظر گرفته شود از ویژگی های مورد نظر به جای یک مشکل یکی برداشته شود.

زمانی که Facebook پیشنهاد جدید اخبار الگوریتم در سال 2017, آن الگوریتمی تعصب حسابرسی نشان داد که محافظه کار رسانه های خبری خواهد بود به طور قابل توجهی بیشتر متاثر از اخبار دیگر رسانه ها. این شرکت بازدید این به عنوان یک گام مثبت به سوی reining در اطلاعات بر روی پلت فرم در حالی که تنها مداخله ترین شرکت ارشد جمهوری خواه معاون رئیس جمهور از سیاست جهانی Joel کاپلان معتقد مهندسین خود به نیشگون گرفتن و کشیدن الگوریتم برای کاهش تاثیر آن بر محافظه کار, اخبار رسانه های.

به عبارت دیگر هوش مصنوعی تعصب ممیزی و الگوریتمی و انصاف و طرح های کوچک متوسط زمانی که یک شرکت به نیروی کار بسیار همگن که تعصبات این ابزار کشف در نظر گرفته مثبت برای تشویق به جای تعصبات برداشته شود. این به ویژه مهم است توجه به این که Facebook کارمند پایه مانند بقیه از دره سیلیکون کج اکثریت لیبرال.

این مسائل مربوط به گسترش فراتر از لیبرال/ملاحظات محافظه کار. فقط 1.5 درصد از Facebook مهندسین و 3.1% از اعضای ارشد رهبری شناسایی به عنوان سیاه و سفید. به عنوان ممیزی یادداشت های این شرکت به شدت سفید نیروی کار احتمالا کمی تجربه مبتنی بر نژاد مسکن تبعیض و در نتیجه Facebook تبلیغات الگوریتم در اصل طراحی شده برای اجازه مسکن تبلیغات است که به طور غیر قانونی از مطالعه حذف برخی از نژادها. الگوریتم ممیزی نمی توانید نقطه خود طراحان فکر نمی کنم به دنبال — و یا درک نمی کنند مشکلات هستند.

اورول به حال این اشتباه زمانی که او را دیدم به عنوان دولت نهایی سانسور. به عنوان Facebook به طور فزاینده ای outsources آینده خود را به مات الگوریتمهای هوش مصنوعی که حتی آن را نمی کند به طور کامل درک آینده ملت ما این است که به طور فزاینده ای در حال تصمیم توسط یک کادر غیر قابل توصیف شرکت های ساختمان مرموز هوش مصنوعی که فرآیندهای جدید تبدیل شده اند عملا قوانین قابل قبول گفتار در ایالات متحده است.

RealClear همکار رسانه های Kalev Leetaru است یک عضو ارشد در دانشگاه جورج واشنگتن مرکز سایبر & امنیت داخلی. گذشته خود نقش ها عبارتند از: همکار در محل اقامت خود در دانشگاه جورج تاون را ادموند A. Walsh دانشکده خدمات خارجی و عضو مجمع جهانی اقتصاد جهانی در دستور کار شورای آینده دولت است.

tinyurlis.gdu.nuclck.ruulvis.netshrtco.de

ایندکسر

hacklink al hd film izle php shell indir siber güvenlik türkçe anime izle Fethiye Escort android rat duşakabin fiyatları fud crypter hack forum mobil ödeme bozdurmaVodafone Mobil Ödeme Bozdurmahtml nullednulled themesMobil Ödeme Nakite ÇevirmeMobil Ödeme BozdurmaMobil Ödeme Nakite ÇevirmeMobil Ödeme Bozdurma 1xbetElexbetJetbahisVenusbetTrbetGorabetMariobetTipobetBetpasBetvole