Компенсация За Зодиакалния Знак
Странност C Знаменитости

Научете Съвместимост По Зодиакален Знак

Вандализмът в Wikipedia може да попречи на разкриването на измама в Google, YouTube и Facebook

Проверка На Факти

За кратък момент Калифорнийската републиканска партия подкрепи нацизма. Поне това каза Google.

Това е така, защото някой вандализира страницата на Уикипедия на партията на 31 май, за да изброи „нацизъм“ заедно с идеологии като „консерватизъм“, „пазарен либерализъм“ и „фискален консерватизъм“. Грешката беше премахната от резултатите от търсенето с Google уточнява пред Vice News че търсачката не е успяла да улови вандализма в записа в Уикипедия.

Google има отдавна привлечен онлайн енциклопедията за добавяне на основна информация към резултатите от търсенето. Според дневника за редактиране за страницата на Калифорнийската GOP, някой добави 'нацизъм' в секцията за идеология на партията около 7:40 UTC на 31 май. Редактирането беше премахнато в рамките на минута, но изглежда алгоритъмът на Google е изстъргал страницата точно навреме за фалшификата.

„Понякога хората вандализират източници на обществена информация, като Уикипедия, което може да повлияе на информацията, която се появява в търсенето“, каза говорител на Google на Пойнтер в имейл. „Имаме въведени системи, които улавят вандализъм, преди да повлияят на резултатите от търсенето, но понякога грешки преминават и това се случи тук.“

Фондация Wikimedia, организация с нестопанска цел, която управлява Wikipedia, също публикува изявление в Twitter.

Според Google, повече от 99,9 процента от редакциите в Wikipedia, които се показват в панелите на знанието, които показват основна информация за ключови думи с възможност за търсене в горната част на резултатите, не са вандалски. Потребителят, който е автор на оригиналната редакция на страницата на Калифорнийската републиканска партия не е използвал потребителски профил , което ги прави трудни за проследяване.

Това е обща тактика сред хората, които вандализират страници в Уикипедия, практика, която нестопанската организация има подробно документиран . Но предвид обема на редакциите, направени в Wikipedia - около 10 в секунда , с 600 нови страници на ден — и фактът, че Facebook и YouTube сега се изтеглят от тях, за да предоставят повече контекст на публикациите, потенциалът и ефектът от злоупотреба са високи.

„Разбира се, това е доста слаб начин за борба с фалшивите новини, защото Уикипедия не е надежден източник на информация — както признава дори Уикипедия“, каза Магнус Фараон Хансен , постдокторант в университета в Копенхаген, в съобщение до Пойнтер. „Уикипедия е много уязвима към измами и съдържа всякакъв вид дезинформация, така че не е много сериозен начин за борба с проблема с измислените новини.“

Хансен редактира страници в Уикипедия от около 10 години и каза, че вандализмът е нещо обичайно в платформата. Броят на редакторите е намаляло през последните години, докато онлайн партизаните имат все повече се насочва към платформата — проблем, който стигна до главата по време на полемиката за Gamergate през 2014 г. По същество това е игра с числа.

Това е далеч от това където беше Уикипедия през 2005 г , когато проучване установи, че е точно толкова, колкото Британика. И това затруднява доброволните редактори да се борят с вандализма в мащаб в Уикипедия, което не вещае добро използването му за борба с дезинформацията на други платформи.

„Със сигурност има много грешна информация в Уикипедия и голяма част от нея ще остане“, каза Хансен. „Често някой пише статия и може да минат години, преди някой да дойде и да я редактира. Хората не правят проверки на факти, освен ако нещо не изглежда наистина не на място.'

едно измислена статия в Уикипедия живя на сайта десетилетие, преди да бъде изтрит през 2015 г.

В същото време платформата се оказа устойчива на измамите, които редовно се разпространяват вирусно Facebook и Twitter . Преценки на Wikimedia че около 2,5 процента от ежедневните редакции са вандалски, а Саманта Лиен, комуникационен мениджър за Wikimedia, посочи алгоритъм, който автоматично маркира съмнителни редакции като ключов успех за усилията й за почтеност.

„Статиите са склонни да предоставят балансирано представяне на фактите и сайтът се оказа устойчив на фалшиви новини и дезинформация до този момент“, каза тя на Пойнтър в имейл. „Също така работихме с редактори-доброволци през последните няколко години, за да изградим и подобрим инструменти за модериране за бързо идентифициране и справяне с вандализма в Wikipedia.“

Отвъд собствените ограничения на Уикипедия, собствените системи на технологичните платформи често са обект на грешки и спорове – особено панелите на знанието.

Също на 31 май, търсене на подкрепящ Доналд Тръмп републикански сенатор в Северна Каролина изплува изображение от нея с надпис „bigot“ отдолу. През януари The Daily Caller установи, че Google погрешно добавя проверки на факти към съдържанието си, а не към това на други канали. Това накара технологичната компания да спре функцията, докато не отстрани грешките.

Google каза на Poynter, че не променя ръчно резултатите от търсенето, за да покаже предпочитание за една страна пред друга. Но неговите алгоритми редовно се играят измами , фалшиви реклами и тролове, които се стремят да променят резултатите от търсенето. И тези проблеми могат да се разпрострат и до други платформи, свързващи към Wikipedia.

„Когато повече медийни платформи използват безкритично съдържание от Wikipedia, това повишава залога – както за тези, които биха подвели или измамничат, така и за тези, които биха разпространявали знания“, каза Хансен. „Мисля, че, особено с връзките към Wikipedia от видеоклипове в YouTube за конспиративни теории, това може да доведе до привличане на грешната тълпа.“

През март, YouTube обяви че ще се свързва директно към страниците на Уикипедия във видеоописанията, за да предостави повече контекст и да развенчае теориите за вирусен конспирация, които често стават вирусни след извънредни новини. Тези „информационни знаци“ — които бяха въведени на платформата без знанието на Уикипедия — ще включва кратък ред за източника и връзка към неговата страница в Уикипедия.

Тази функция все още не е въведена, но YouTube представи подобна през февруари, която предоставя повече контекст на новинарските организации, които получават пари от правителството на САЩ.

Youtube

(Екранна снимка от YouTube)

Като се има предвид повишената видимост на страниците на Уикипедия, възможно е вандали да се стичат към платформата, за да тролят няколко платформи с една редакция.

„Хакването на Уикипедия винаги е било проблем, но това е проблем, който наистина е въздействал само на читателите на Уикипедия. Сега е още по-опасно, тъй като платформите все повече автоматично се изтеглят от Уикипедия“, каза Клеър Уордъл, изпълнителен директор на First Draft, в имейл до Poynter. „За агентите на дезинформацията, които искат максимално усилване, всяка техника, която гарантира, че платформите или редакциите ще се повтарят и следователно ще легитимират лъжа, осигурява непропорционална „възвръщаемост на инвестициите“.“

Въпреки че служи като източник за повече платформи, Уикипедия не е забелязала нарастване на вандализма, каза Лиен. Но виждайки как допълненията хванаха организацията неподготвени, не е сигурно как точно ще повлияят на целостта на страниците в Уикипедия.

„Тенденцията технологичните компании да използват Wikipedia за справяне с проблемите на дезинформацията на собствените си платформи е нова територия за нас и не знаем какви ще бъдат пълните последици“, каза тя. „В краткосрочен план ние следим отблизо как това се отразява на Уикипедия и нашата глобална общност от доброволци. Досега не сме виждали нищо, което да показва по-мащабен проблем на вандализма.'

Но дори и да има увеличение на вандализма в Уикипедия с намерението да се променят резултатите в платформите, Лиен каза, че организацията няма как да знае.

„Нямаме налични данни, които да показват тенденции във вандализма с изричното намерение да се манипулират други платформи“, каза тя.

И така, колко е вероятно повече дезинформация да си пробие път към други платформи? Джоузеф Рийгъл, доцент по комуникации в Североизточния университет и експерт от Уикипедия, каза на Пойнтер, че няма начин да се знае без правилните системи за наблюдение, че структурата, която е създадена, може да направи дезинформацията по-видима - дори когато не е създадена за игра платформи като Google и Facebook.

„Да, това е вероятно и смятам, че ще стане още по-вероятно, тъй като тези компании с печалба продължават да скачат на търсачката“, каза той. „В случая с Google не мисля, че целта на редакцията е да замърси потребителите на Уикипедия надолу по веригата, но това все пак беше ефектът. Фактът, че Уикипедия се използва от тези агрегатори надолу по веригата, също така ще направи Уикипедия по-голяма цел, което е повод за безпокойство.'

И все пак, въпреки че се свива, Уикипедия все още има ангажирана общност от редактори, които имат Години опит работа със статии за извънредни новини. Нейтън Матиас, научен сътрудник след докторантура в Принстънския университет, каза на Пойнтър в имейл, че е малко вероятно дезинформацията често да се промъкне през пукнатините заради тази общност.

Но в периферията на сайта този шанс значително се увеличава.

„В случаите на извънредни новини, при които активисти от всякакъв вид са разработили начини да влияят върху алгоритмите на платформата по-бързо от скоростта на журналистиката, очаквам, че Wikipedia ще бъде по-устойчива на влияние“, каза той. „Рисковете за Wikipedia и платформите ще бъдат по-големи в периферията на знанието и вниманието, тъй като е по-трудно да се забележи малък поток от хора, които имат достъп до нископрофилни екстремистки материали.“

Въпреки предизвикателствата, някои експерти виждат технологичните платформи, свързващи страници към Уикипедия, като стъпка напред за противодействие на онлайн дезинформацията.

Ени Мустафарадж, асистент по компютърни науки в колежа Уелсли, каза на Пойнтър в имейл, че добавянето на Wikipedia към големите технологични платформи е положителен ход. Но идва с предупреждения.

„Те трябва да правят това последователно, а не само за борба с дезинформацията, измамите или теориите на конспирацията“, каза тя. „За да се борим с дезинформацията, не трябва да поставяме Facebook и Google начело, защото те са тези, които изостриха проблема на първо място.“

В същото време отнемането на информация от Уикипедия извън платформата може по същество да обърка читателите. Хансен каза, че виждането на връзки към сайта от платформи за социални медии, дори и да са добре етикетирани, няма да предизвика същия вид скептицизъм, който е присъщ на потребителите на Уикипедия.

„Читателят не знае, че това е от Уикипедия. Това въвежда слой, в който не можете да сте сигурни в източника на информацията“, каза той. „Хората са скептични, когато са в Уикипедия – можете да видите, когато няма източник… когато сте на различна платформа, не сте нащрек за такива неща.“

След това възниква въпросът за честотната лента. Тъй като редакторството продължава да намалява, Уикипедия може да поиска да обмисли наемането на служители на пълен работен ден, чиято работа е да наблюдават вандализма и да гарантират, че няма да се разпространят в други платформи. Хансен каза, че смята, че организацията с нестопанска цел трябва да създаде вътрешно звено за проверка на фактите или да привлече експертни редактори и учени да преценят някои от по-нюансираните страници.

„Мисля, че това е единственият начин за борба с дезинформацията в Уикипедия“, каза той.

Най-малкото, Лиен предположи, че технологичните платформи, които използват Wikipedia за противодействие на дезинформацията, връщат по някакъв начин на организацията с нестопанска цел - точка, която изпълнителният директор на Wikimedia Катрин Махер аргументира в скорошна статия за Wired . (Facebook и YouTube не са включени сред най-добрите благодетели на Wikimedia.)

„Насърчаваме компаниите, които използват съдържанието на Уикипедия, да дадат обратно в същия дух на устойчивост“, каза тя. „По този начин те ще се присъединят към милионите хора, които се включват, за да поддържат Уикипедия силна и процъфтяваща.“

И Матиас се съгласи.

„Ако компаниите очакват да разчитат на огромни количества неплатен и често психологически обременяващ труд от страна на Wikipedia и Фондация Wikimedia, за да се справят с някои от най-трудните си проблеми, те трябва да намерят начини да подкрепят тази работа, като същевременно защитават интелектуалната независимост на Wikipedia“, каза той.