Google рассказала о разработке ИИ для выявления терроризма на YouTube

  • Новость
Google недавно попала в скандальную историю в связи со слабой модерацией роликов на YouTube. Как выяснилось, на этой платформе не только публикуется видео экстремистского содержания, но там размещается реклама известных брендов. Это вызвало настоящую революцию среди рекламодателей. Google обвинили буквально в финансировании терроризма, расизма, фашизма и прочих грехов. В результате YouTube пришлось ужесточить проверку контента, на котором размещается реклама. Компания Google в официальном блоге пообещала, что наберёт больше людей, которые будут следить за соблюдением правил, чтобы предотвратить появление рекламы на страницах с неподобающим содержанием.

Новая волна обвинений поднялась в последние дни: сейчас компаниям Google, Facebook и Twitter даже грозят штрафы в Великобритании и Франции за публикацию экстремистского контента (после последних терактов).

Компании Google и Facebook были вынуждены реагировать.

Google изложила четыре шага, которые предпринимает для нахождения и удаления про-террористического контента на своих сайтах, особенно на YouTube.

Инженеры разработали технологию для предотвращения повторной загрузки известного террористического контента на YouTube, используя технологию сопоставления изображений. Это может быть новостной репортаж с ТВ или видео с восславлением насилия, залитое любым пользователем.

Google вкладывает больше усилий в разработку систем машинного обучения для автоматического определения терроризма. В отличие от повторной загрузки, эта технология сможет определять даже новые террористические видео, анализируя их контент (content-based signals). Модели видеоанализа уже обучили более чем на 50% террористических видео, удалённых с YouTube за последние полгода.

В конце концов, увеличивается штат модераторов YouTube’s Trusted Flagger, который сейчас составляет тысячи человек. «Компьютеры могут помочь выявить сомнительные видео, но эксперты-люди по-прежнему играют роль в принятии сложных решений, где нужно провести черту между насильственной пропагандой и религиозными, заслуживающими доверие речами», — пишет Google. Компания отмечает, что среди всех пользователей доля корректных «флагов» может быть низка, а вот у экспертов Trusted Flagger она превышает 90%. Google заключила партнёрство ещё с 50 экспертными группами (теперь их 113), контр-террористическими агентствами и другими технологическими компаниями для информирования и улучшения совместной работы по выявлению террористического контента.

Вдобавок, Google намерена более жёстко ставиться к легальным религиозным видео, где провозглашается превосходство, например, над западной цивилизацией и культурой. Если они помечены как «неподходящие», то никогда не будут доступны для монетизации, рекомендаций, комментариев или лайков, хотя удалять их не будут. Google считает это правильным балансом между свободой слова и правами доступа к информации. Тут её не обвинят в распространении радикальных видео и заработке на них.

О разработке ИИ для выявления терроризма рассказала и компания Facebook. Социальная сеть использует технологии сравнения изображений (обнаружение дубликатов уже известных террористических фотографий), распознавания речи (сейчас идёт обучение нейросети на звуке и тексте старых видео террористических организаций «Аль-Каида» и ИГИЛ), удаления кластеров террористов из членов социальной сети (известно, что они группируются в кластеры), определения фейковых аккаунтов и кросс-платформенной коллаборации.
Метки:
Поделиться публикацией
Комментарии 7
  • +2
    Google недавно попала в скандальную историю в связи со слабой модерацией роликов на YouTube. Как выяснилось, на этой платформе не только публикуется видео экстремистского содержания, но там размещается реклама известных брендов.

    Т.е. ютьюб это не только икстримизм, но ещё и реклама?
    Вот это сейчас Google обидно стало.

    • 0
      где провозглашается превосходство, например, над западной цивилизацией и культурой

      Т.е. превосходство западной культуры над другими в группу «неподходящих» по прежнему не попадает?
      • 0
        сейчас идёт обучение нейросети на звуке и тексте старых видео террористических организаций «Аль-Каида» и ИГИЛ

        Ага, а потом будут жаловаться, что машины восстают против человечества...

        • 0
          А как, например, этот «интеллект» поступит вот с этим видео?

          • 0

            Вот кстати по поводу рекламы в так называемых 'неоднозначных' видео рекомендую посмотреть видео h3h3, где довольно подробно описывается эта проблема, и почему YouTube несколько неправильно к ней относится: https://youtu.be/gQ489KjPqlc

            • +1
              Теперь гугл будет решать кто террорист, а кто борец за свободу

                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.