Основатель и руководитель компании «Фейсбук» Марк Цукерберг сообщил о разработке компанией новых высокотехнологичных инструментов для предотвращения вмешательства в процесс выборов в США и в других странах со стороны внешних сил, включая Россию.
«Мы предпринимаем ряд мер для использования новых высокотехнологичных инструментов, что смогут активно выявлять фальшивые аккаунты, которые могут быть созданы Россией или другими силами для распространения ложной информации», — заявил М.Цукерберг в среду в ходе слушаний в Палате представителей американского Конгресса.
Отвечая на вопрос одного из членов Палаты о том, какие меры «Фейсбук» принимает для предотвращения новых случаев вмешательства в выборы, М.Цукерберг заявил, что эта сфера крайне важна для «Фейсбук», поскольку «в 2018 году важные выборы проходят» во многих странах мира, включая США.
«После того, как мы промедлили с выявлением российских информационных операций (якобы имевшее место вмешательство РФ в выборы в США — ИФ) в 2016 году, вопрос предотвращения подобных случаев стал главным приоритетом для нашей компании», — заявил глава «Фейсбук».
Ранее, выступая перед представителями комитетов Сената США по юридическим делам и по торговле, науке и транспорту, М.Цукерберг признал ошибки «Фейсбук», позволившие британской аналитической компании Cambridge Analytica получить в распоряжение 87 млн пользовательских данных, а также рассказал о «гонке вооружений» с Россией в киберпространстве.
Он взял на себя ответственность за то, что данные пользователей продукции «Фейсбук» попали в распоряжение компании «Cambridge Analytica, которая могла использовать их в пользу избирательной кампании президента США Дональда Трампа в 2016 году.
В ходе пятичасовых слушаний М.Цукерберг также подтвердил, что его компания тесно сотрудничает с командой специального прокурора Роберта Мюллера, возглавляющего расследование предполагаемого российского вмешательства в американские выборы в 2016 году.
Источник: Интерфакс-Украина
Подписывайтесь на канал «Хвилі» в Telegram, страницу «Хвилі» в Facebook.