"КАМЕННЫЙ ВЕК ЗАКОНЧИЛСЯ НЕ ПОТОМУ, ЧТО ЗАКОНЧИЛИСЬ КАМНИ" (c)

Слушание в Сенате информатора Фрэнсис Хоген: леденящее кровь погружение в кухню Фейсбук

ГАЯ - ДРЕЗ, 11 НОЯБРЯ 2021 ГОДА

Американский инженер Фрэнсис Хоген, стоящая за серией разоблачений об алгоритмах, используемых Facebook, где она работала с 2019 по 2021 год, была заслушана сенаторами в среду. Она осудила цифровой гигант за гонку за прибылью, даже если это означает закрывать глаза на определенную дезинформацию и пропаганду языка вражды.
«Почти никто за пределами Facebook не знает, что происходит там внутри». И она — одна из небольшой горстки привилегированных людей.

В среду Сенат заслушал американку Фрэнсис Хоген, инженера-компьютерщика, работавшую прежде чем стать осведомителем, в сети, основанной Марком Цукербергом с 2019 по 2021 год.
 
Этот специалист по алгоритмам передала американским регуляторам, Конгрессу и различным СМИ сотни документов внутреннего пользования Силиконовой долины, из которых явствует, что компания отказывается бороться с пагубным воздействием, которое она оказывает на пользователей сети и, в целом, в отношении контента ненависти и дезинформации.

«Я считаю, что продукты Facebook вредят детям, усугубляют разногласия и вредят демократии», — сказала Фрэнсис Хоген комитетам Сената по делам Европы, культуре, образованию и коммуникациям.

«Руководители знают, как сделать Facebook и Instagram более безопасными, но отказываются вносить необходимые изменения для того, чтобы поставить свою огромную прибыль выше людей».

Предприняв поездки по Европе в тот момент, когда ЕС приступил к изучению Закона о цифровых услугах — положение о цифровых услугах, которое обеспечивает основу для использования алгоритмов, Фрэнсис Хоген более часа рассказывала о том, как социальная сеть привлекает более 1,9 миллиарда пользователей по всему миру.

Использование алгоритмов для получения прибыли


«Facebook неоднократно сталкивался с конфликтами между своей собственной прибылью и нашей безопасностью, и каждый раз компания решала эти конфликты в пользу собственной прибыли», — сказала сенаторам Фрэнсис Хоген. Этот специалист в новых технологиях указывает на разрыв между Facebook конца 2000-х годов, предлагавшим своим пользователям по преимуществу семейный и дружеский контент, и Facebook 2010-х годов, предоставляющий пользователям Интернета гораздо более разнообразный, но более экстремальный контент.

«Алгоритм всегда выбирает контент, вызывающий распри и приводящий к жестокости», -- объясняет Фрэнсис Хоген. «Он чрезмерно усиливает их», потому что такой контент, скорее всего, заставляет пользователей реагировать, а чем больше пользователи реагируют, тем больше времени они проводят в сети и потребляют рекламу.

В качестве примера она приводит следующее: «В Германии произошел скандал из-за того, что 65% людей, присоединившихся к неонацистским группам в Facebook, сделали это потому, что им это предложил алгоритм».

«Были ли алгоритмы разработаны с изначальным намерением получать исключительно прибыль, и в таком случае их можно исправить, или это непоправимо, а экономическая модель определенно токсична и порочна?» -- спрашивает сенатор Кэтрин Морен-Десайи. По словам Фрэнсис Хоген, «У Facebook есть огромное количество решений, которые будут работать в любой точке мира», но он предпочитает их не учитывать, когда они приводят к снижению доходов, особенно от рекламы.

Особо уязвимые целевые аудитории


Последствия воздействия жестокого контента: «Машина для получения прибыли, которую представляет собой Facebook, также порождает членовредительство и ненависть к себе, особенно среди наиболее уязвимых групп», — говорит Фрэнсис Хоген. Эти различные извращенные эффекты сети были даже предметом внутренних исследований. Считается, что девочки-подростки относятся к числу наиболее восприимчивых к этому типу явлений.

Кроме того, вдовы и вдовцы, разведенные и недавно сменившие место жительства, будут больше подвержены дезинформации в Facebook, чем другие: "Люди — в ловушке и поглощают много контента, потому что они потеряли свои социальные сети", — говорит Фрэнсис Хоген.

«Проблема в том, что чем больше идея мелькает перед вашими глазами, тем больше она кажется вам реальной». Это позволило распространяться в сети теориям заговора и другим псевдонаучным дискурсам во время кризиса Сovid-19 через ограниченное число пользователей. 80% сообщений, содержащих информацию о коронавирусе, получили только 4% сообществ в Facebook. «Некоторые — столкнулись с потоком информации».

Слепая зона модерации


Facebook не имеет достаточного количества сотрудников, понимающих различные диалекты, используемые в сети. Кроме того, его системы автоматической модерации недостаточно основательны, и могут приводить к исключению незаконного контента или, наоборот, к удалению законного. «Контртеррористические обсуждения квалифицируются как террористические», — отмечает Фрэнсис Хоген.

«Сколько франкоговорящих модераторов работает в Facebook?" — спрашивает сенатор Лоран Лафон, председатель комитета по культуре, образованию и коммуникациям. «Компания это не раскрывает…, потому что их слишком мало. Я не знаю точной цифры, но в сентябре 2020 года, 87% операционного бюджета было потрачено на англоязычных», — ответила информатор. По ее словам, три четверти из 30 000 модераторов Facebook, большинство из которых базируются на Филиппинах, прежде всего, говорят по-английски.

«Facebook знает, что самая большая угроза бизнесу может исходить только от Соединенных Штатов, т.е. от англоязычного мира, а поэтому он недостаточно инвестирует в те зоны, от которых он не чувствует угрозы".

Острый недостаток прозрачности.


Информатор также настаивала на необходимости заставить Facebook больше сообщать о данных, которые он собирает, полагая, что в этом отношении цифровой гигант еще более неохотно, чем Twitter и Google, делится определенной информацией.

«Как общественность может определить, разрешает ли Facebook конфликты интересов способом, отвечающим общественным интересам, если у нее нет информации и контекста о том, как на самом деле работает Facebook? Это должно измениться», — подчеркивает Фрэнсис Хоген. Целью является позволить независимым исследователям или ученым брать образцы для изучения алгоритмов, а также — поведения пользователей.

Кроме того, публикация и распространение такой работы может подтолкнуть компанию к переосмыслению своих приоритетов в развитии: «Если бы Facebook тратил миллиарды на безопасность, меня бы здесь не было. Инвестиций недостаточно, и работают всего 1000 или 2000 инженеров», — говорит Фрэнсис Хоген.

Необходимость применения законодательства


«Facebook снова и снова пытается сглаживать скандалы, просто говоря: мы над этим работаем. Такая динамика должна измениться», — отмечает Фрэнсис Хоген, которая считает, что компания должна подвергаться аудиту и внешнему контролю.

«Facebook не может быть одновременно присяжным, свидетелем и прокурором», — настаивает ученый. Она особенно приветствует европейскую инициативу в связи с Законом о цифровых услугах. «На мой взгляд, этот Закон о цифровых услугах может стать мировым эталоном, который может вдохновить другие страны. […]

Закон должен быть строгим, а его применение — твердым, иначе мы потеряем уникальную возможность согласовать будущее технологий и демократию».


Перевод: Miriam Argaman

Опубликовано в блоге "Трансляриум"

Комментариев нет:

Отправить комментарий