Компенсация За Зодиакалния Знак
Странност C Знаменитости

Научете Съвместимост По Зодиакален Знак

Facebook обявява радикални промени в политиките си за борба с дезинформацията

Проверка На Факти

(Shutterstock)

Facebook започва второто тримесечие на фискалната година, като въвежда промени в начина, по който се бори с дезинформацията на своята платформа.

В публикация в блог от близо 2000 думи, изпратена до Poynter в сряда, Facebook обяви множество нови неща, които прави, за да се бори с фалшиви новини, изображения и видеоклипове.

Сред промените:

  • Сега Facebook намалява обхвата на групи, които многократно разпространяват дезинформация.
  • Той проучва използването на краудсорсинг като начин да се определи на кои новинарски издания потребителите се доверяват най-много.
  • И компанията добавя нови индикатори към Messenger, групи и новинарски канал в опит да информира потребителите за съдържанието, което виждат.

„Имаме редица актуализации на продукти срещу една или две големи промени“, каза говорителката на Facebook Мари Мелгизо в имейл до Poynter. „Тези усилия се фокусират върху запазването на безопасността на хората и поддържането на целостта на информацията, която преминава през нашите приложения.“

Ето какво конкретно е свързана всяка от най-големите промени с дезинформацията, с контекст от журналисти, учени и технолози, както и допълнително четиво за всяка тема. Прочетете изцяло публикацията в блога на Facebook тук .

Понижаване на групи, които разпространяват дезинформация

Сред най-големите промени, които Facebook обяви в сряда, беше, че ще започне да понижава обхвата на групи, които многократно разпространяват фалшиви новинарски истории, изображения и видеоклипове.

„Когато хората в група многократно споделят съдържание, което е оценено като невярно от независими проверяващи факти, ние ще намалим цялостното разпространение на новинарските емисии на тази група“, пишат Гай Розен, вицепрезидент по интегритет на Facebook и Теса Лайънс, ръководител на целостта на емисиите на новини , в публикацията в блога.

Facebookе хванал флакпрез последните няколко месеца за разпространението на конспиративни теории срещу ваксините, много от които започнаха в групи и след това се разпространиха в останалата част от платформата. В отговор както на медийния натиск, така и нанатиск от американски политици, компанията очерта план в началото на март, за да ограничи съдържанието на antivaxxer на своята платформа.

В него Facebook обяви, че групи и страници, които споделят дезинформация срещу ваксините, ще бъдат премахнати от алгоритъма за препоръки, но не и напълно. Този ход беше мълчаливо признание за силата, която групите имат при разпространението на фалшиво съдържание.

Facebook предприема действия срещу конспирациите срещу ваксините. Но фалшивите медицински лечения все още достигат огромен обхват.

BuzzFeed News съобщи през март 2018 г. тази функция, често възхвалявана от ръководството на Facebook — и с приоритет в емисиите на новините — се превърна в „глобален кош за спам, фалшиви новини, конспирации, здравна дезинформация, тормоз, хакване, тролинг, измами и други заплахи за потребителите“. Защо?

„Пропагандистите и разпространителите на спам трябва да натрупат аудитория и групите я поднасят на поднос“, каза Рене ДиРеста, изследовател по сигурността, пред BuzzFeed. „Няма нужда да провеждате рекламна кампания, за да намерите хора, възприемчиви към вашето съобщение, ако можете просто да се присъедините към подходящи групи и да започнете да публикувате.“

И докато компанията предприе няколко стъпки, за да ограничи разпространението на фалшификати в News Feed, до сряда не правеше малко за борба с дезинформацията конкретно в групи.

„Няма съгласувани усилия да се отървем от фалшиви новини, дезинформация, каквото и да е“, каза бивш служител на Facebook, който е работил по групи, пред Poynter през януари. „Това е много по-лошо, защото седи там и е скрито… също толкова лошо е, колкото машина за генериране на фалшиви новини, дезинформация, както някога е била в News Feed.“

Леонард Лам, говорител на Facebook групи, каза на Poynter, че същите политики за борба с дезинформацията, които управляват продукти като News Feed, важат за цялата платформа. Това означава, че фалшиви статии, изображения и видеоклипове, развенчани от партньорите на Facebook за проверка на фактите, ще се показват със съответната проверка на фактите, показана под тях - дори в групи.

Тези сигнали ще бъдат използвани и за определяне кои групи са повтарящи се дезинформатори, едно от първите неща, които Facebook направи специално за борба с дезинформацията в групите.

Хиперпартийните Facebook групи са следващото голямо предизвикателство за проверяващите факти

Краудсорсинг доверие в новините

Съобщението в сряда идва, когато Facebook разширява партньорството си с обекти за проверка на фактите по целия свят - вероятно най-видимото усилие на компанията за борба с дезинформацията в платформата.

Facebook стартира програмата през декември 2016 г. с американски проверки на факти като PolitiFact, Snopes и Factcheck.org (принадлежащи на Poynter). Целта: Да се ​​идентифицират, развенчават и намаляват обхвата на фалшивите новини в платформата. След като измамата бъде маркирана като фалшива, нейният бъдещ обхват в News Feed се намалява и към нея се добавя проверка на факта.(Разкриване: да сте подписал наКодексът на принципите на Международната мрежа за проверка на фактите на Poynterе необходимо условие за присъединяване към проекта.)

Оттогава тосе е разширилда позволи на проверяващите факти да развенчават фалшиви изображения и видеоклипове. Партньорството е пораснал до 47 проекта, написани на 23 езика по целия свят. И докато проекти като Snopes и CBS се отказаха по различни причини, издания като Асошиейтед прес наскоро се разшириха ангажимента им към програмата.

Една нова функция за борба с дезинформацията може да помогне за засилване на тази работа.

Как Facebook се справя с дезинформацията, в една графика

„Просто няма достатъчно професионални проверяващи факти по целия свят и, както всяка добра журналистика, проверката на факти отнема време“, пишат Розен и Лайънс в публикацията в блога. „Една обещаваща идея за засилване на тяхната работа, която проучваме от 2017 г., включва групи потребители на Facebook, посочващи журналистически източници, за да потвърдят или противоречат на твърдения, направени в потенциално фалшиво съдържание.

Главният изпълнителен директор Марк Зукърбърг излъчи тази идея във видео във Facebook през февруари - малко повече от година след това той първо го изплува . Движението не беше популярен сред журналисти, които казаха, че ежедневните потребители на Facebook не могат да оставят настрана своите пристрастия, за да оценяват достоверни новинарски издания.

Но ново проучване публикувано през февруари 2018 г предполага друго.

„Това, което открихме, е, че макар да има истински разногласия между демократите и републиканците по отношение на масовите новинарски издания, по принцип всички – демократи, републиканци и професионални проверяващи факти – са съгласни, че на фалшивите и хиперпартийните сайтове не трябва да се вярва“, каза Дейвид Ранд , доцент в Масачузетския технологичен институт, в прессъобщение .

Според публикацията в блога в сряда, Facebook ще продължи да проучва идеята, като се консултира с учени, експерти по проверка на фактите, журналисти и организации на гражданското общество.

„Всяка система, която прилагаме, трябва да има предпазни мерки срещу игри или манипулации, да избягва въвеждането на лични пристрастия и да защитава гласовете на малцинствата“, пишат Розен и Лайънс.

Краудсорсингът на надеждни източници във Facebook не е толкова пресилено, колкото си мислите

Повече контекст във Facebook

В миналото технологичните компании са се обърнали към уебсайтове като Wikipedia, за да предостави повече контекст за източниците, които публикуват на техните платформи. В сряда Facebook обяви множество нови подобни индикатори.

„Инвестираме в функции и продукти, които дават на хората повече информация, за да им помогнем да решат какво да четат, да се доверят и да споделят“, пишат Розен и Лайънс в публикацията в блога.

Facebook актуализира своя контекстен бутон, стартира през април миналата година, за да се включи информация от Проектът Доверие относно етичните политики на издателите, собствеността и структурата на финансиране. Компанията започва да показва повече информация в раздела си за качество на страницата, който стартира през януари за да покаже на собствениците на страници кои от техните публикации са били развенчани от партньорите на Facebook за проверка на фактите. И в Messenger компанията добавя проверена значка, за да намали представянето под самоличност и измами.

Facebook също започва да обозначава препратените съобщения в Messenger – тактика, привидно заимствана от сестринската компания WhatsApp, която пусна подобна функция през юли в опит да се намали разпространението на дезинформация.

WhatsApp стартира функция, която обозначава препратените съобщения

Въпреки че са лесен начин да дадете на потребителите повече информация за издателите в социалните медии и по този начин да им попречите да споделят дезинформация, индикатори като контекстния бутон на Facebook също имат потенциала да бъдат играни.

През лятото някой вандализира страницата на Уикипедия на Републиканската партия в Калифорния, за да каже, че тя подкрепя нацизма. Докато повечето случаи на вандалски прояви в Уикипедия се хващат доста бързо, този случай на инцидент стигна до Google, което изплува фалшивата редакция високо в резултатите от търсенето.

Това е рядкост. Но предвид обема на редакции, които се правят в Уикипедия всеки ден, може да е трудно за технологичните платформи да уловят всички случаи на вандализъм.

„Разбира се, това е доста слаб начин за борба с фалшивите новини, защото Уикипедия не е надежден източник на информация – както признава дори Уикипедия“, Магнус Фарао Хансен, постдокторант в университета в Копенхаген, каза на Пойнтър през юни . „Уикипедия е много уязвима към измами и съдържа всякакъв вид дезинформация, така че не е много сериозен начин за борба с проблема с измислените новини.“

Вандализмът в Wikipedia може да попречи на разкриването на измама в Google, YouTube и Facebook

В същото време функции като раздела за качество на страницата на Facebook имаха по-демонстративно въздействие върху разпространението на дезинформация.

След Factcheck.org развенчана фалшив мем за представителя на САЩ Александрия Окасио-Кортез (D-N.Y.) през март, страницата, която публикува снимката го изтри . И това не беше за първи път; други повтарящи се дезинформиращи страници във Facebook са свалили съдържание развенчана от партньорите на компанията за проверка на фактите и някои са ребрандирали дейността си като цяло.

корекция: В предишна версия на тази статия фамилното име на Леонард Лам е изписано погрешно.