یک شرکت تحقیقاتی برجسته بر تحول دیجیتالی تمرکز کرده است.
خوب
مشترک از آن زمان فعال است
کنگره سه شنبه جلسه ای را با محوریت یک شرکت بزرگ فناوری برگزار کرد – و این موضوع به تئاتر سیاسی اختصاص پیدا نکرد.
این تغییر بزرگی از سابقه قانون گذاران در زمینه جلسات مربوط به سیستم عامل های فناوری در سال های اخیر است.
قانونگذاران جمهوری خواه معمولاً از زمان صحبت خود برای س questionال از شاهدان در مورد آنچه که آنها می گویند تکنولوژی صلیبی است برای سکوت محافظه کاران با حذف پست های خود استفاده می کنند. دموکراتها غالباً به خاطر عذرخواهی از شاهدان به دلیل رفتار همکارانشان قبل از اینکه از شرکتها بخاطر عدم اقدام کافی برای حذف پستهای حاوی نفرت و دروغ استفاده کنند ، عذرخواهی می کنند.
اما جلسه افشاگری فاقد آن کشمکش سیاسی معمولی بود و کارمند سابق فیس بوک ، فرانسیس هاوگن ، در پاسخ های خود دو مورد را در مرکز توجه قرار داد: هوش مصنوعی و الگوریتم ها. و قانونگذاران دو طرف راهرو سوالات مولد و مرتبط را برای او آماده کرده بودند.
فیس بوک از رایانه ها برای تصمیم گیری در مورد نوع محتوا به کاربران استفاده می کند. این پلتفرم به پست هایی که بیشترین ارتباط را دارند نگاه می کند و از این یافته ها برای نمایش مطالب مشابه در News Feed استفاده می کند که احتمالاً افراد نیز با آنها درگیر خواهند شد. هدف این است که مردم را در این پلتفرم نگه داریم و دلارهای تبلیغاتی بیشتری را در جیب فیس بوک قرار دهیم.
هاوگن می گوید اما مشکلات اینگونه سیستم عامل های رایانه ای این است که بیشترین افراد با محتوا معمولاً پست های عصبانی ، تفرقه انگیز و پر شور هستند که حاوی اطلاعات غلط هستند و استفاده از ماشین ها برای افزایش آن به افراد بیشتر خطرناک است.
هاوگن روز سه شنبه با اشاره به اصطلاح صنعت برای الگوریتم هایی که محتوا را برای شما انتخاب می کنند ، گفت: "اگر ما نظارت مناسبی داشتیم یا 230 را اصلاح می کردیم تا فیس بوک را مسئول بدانیم ، من فکر می کنم می توانیم از رتبه بندی مبتنی بر مشارکت خلاص شویم."
روش نظارت فیس بوک برای تعامل با پست را می توان در تغییر الگوریتم سال 2018 جستجو کرد که به نفع محتوای تفرقه انگیز بود ، که طبق اسناد داخلی ای که هاوگن به وال استریت ژورنال داد ، کارکنان را نگران کرد. به نوشته این روزنامه ، فیس بوک این تغییر را پس از آنکه متوجه شد مردم زمان کمتری را در این پلتفرم صرف می کنند ، ایجاد کرد.
هاوگن گفت: "من به شدت اصلاحاتی را ترغیب می کنم که ما را در رسانه های اجتماعی در مقیاس انسانی و نه رسانه های اجتماعی کامپیوتری سوق می دهد." "این آسیب های تقویت کننده به دلیل انتخاب رایانه برای ما مهم است ، نه دوستان و خانواده."
جلسه سه شنبه ممکن است سیاست کمتری به ما بدهد ، اما به طور کامل بدون آن نبود. فقط یک سناتور جمهوری خواه ادعای سانسور کرد و هاوگن تحت تاثیر قرار نگرفت.
سناتور تد کروز از تگزاس از هاوگن پرسید که آیا نگران "الگوی مشارکت در سانسور سیاسی" فیس بوک و فناوری است ، که محققان نیویورک در گزارشی اوایل امسال آن را رد کردند.
در پاسخ ، او به سادگی بر نحوه تقویت الگوریتم های اطلاعات غلط تمرکز کرد.
هاوگن گفت "مکانیسم های تقویت" باید تغییر کند ، شاید با سازماندهی محتوای News Feed به ترتیب زمان ارسال.
هاوگن در پاسخ به سوال سناتور کروز گفت: "ما نمی خواهیم رایانه ها تصمیم بگیرند که بر چه چیزی تمرکز می کنیم." "ما باید نرم افزاری داشته باشیم که مقیاس انسانی داشته باشد ، جایی که انسانها با هم مکالمه می کنند ، نه کامپیوترهایی که به ما کمک می کند تا از آنها بشنویم."

source

توسط perfectmoment