Программисты создали искусственный интеллект для обнаружения домогательств в электронных письмах

  • 3 января, 12:54
  • 4224
  • 0

Многие западные компании экспериментируют с технологиями, которые отслеживают притеснения и домогательства между сотрудниками, но критики ставят под сомнение эффективность этих инструментов.

Программисты искусственного интеллекта разрабатывают ботов, которые смогут идентифицировать цифровые издевательства и сексуальные домогательства.

Известные как «#MeTooBots», движения, которое возникло после обвинений против голливудского продюсера Харви Вайнштейна, боты смогут отслеживать и помечать сообщения между коллегами и внедряются компаниями по всему миру.

Разработчики говорят, что научить искусственный интеллект тому, как выглядит домогательство с его лингвистическими тонкостями и специфической эмоциональной окраской очень нелегко.

Джей Лейб, исполнительный директор находящейся в Чикаго фирмы ИИ NexLP, сказал: «Я не знал обо всех формах преследования. Я думал, что это может быть просто грязный разговор. Однако, это происходит по-разному. Это может быть 15 сообщений... или просто красивые фотографии».

Платформа Nex AI используется более чем 50-тью корпоративными клиентами, включая юридические фирмы в Лондоне.

Индустрия является потенциально благодатной почвой для ботов-защитников: треть женщин-юристов в Британии сообщают о сексуальных домогательствах.

Бот использует алгоритм, обученный для выявления потенциальных издевательств, включая сексуальные домогательства, в документах компании, электронных письмах и чатах. Данные анализируются по различным показателям, которые определяют, насколько вероятно возникновение проблемы. Все, что ИИ считает потенциально проблемным, затем отправляется юристу или менеджеру по персоналу для расследования.

Какие именно индикаторы считаются «красной меткой», остается секретом компании, но Лейб сказал, что бот ищет аномалии в языке, частоте или сроках общения в течение нескольких недель, в то же время постоянно обучается распознавать домогательства.

Профессор Брайан Субирана, преподаватель по искусственному интеллекту в Гарварде и Массачусетском технологическом институте, сказал, что идея использования искусственного интеллекта для искоренения преследований была многообещающей, хотя возможности таких ботов ограничены.

«Есть тип преследования, которое очень тонкое и его очень трудно распознать. У нас есть учебные курсы [о преследовании] в Гарварде, и они требуют понимания, на которое ИИ еще не способен», - сказал он.

Основная проблема заключается в том, что ИИ может только надежно проводить базовый анализ истории, то есть его учат искать конкретные ситуативные маркеры. Он не может выходить за рамки этого параметра и не может выявить более широкую культурную или уникальную межличностную динамику. Это означает, что боты рискуют оставить пробелы или оказаться чрезмерно чувствительными.

Кроме того, если переписка сотрудников помечается, это может создать атмосферу недоверия, а правонарушители могут узнать как обманывать программное обеспечение или прибегнуть к другим средствам связи, которые не контролируются ботами.

Еще одной проблемой является защита конфиденциальности данных, которые собираются. Субирана сказал, что если программное обеспечение допустило ошибку, а данные подверглись утечке, конкурирующие компании смогут увидеть внутреннюю переписку между сотрудниками.

Несмотря на опасения, Субирана считает, что #MeTooBots может предложить косвенные преимущества. «Вариант использования, который я мог бы представить, является учебным. Это может обеспечить базу данных проблемных сообщений между сотрудниками», - сказал он.

Он добавил, что уверенность в том, что отслеживание коммуникаций может сделать людей менее склонными к преследованиям коллег, в плацебо, известном как эффект Хоторна. «Здесь есть профилактический элемент», - сказал он.

Подобная технология используется для ретроспективного поиска больших объемов цифровых сообщений для борьбы с домогательствами.

Другой стартап ИИ, Spot, создал чат-бота, который позволяет сотрудникам анонимно сообщать об обвинениях в сексуальных домогательствах. Его обучают давать советы и задавать деликатные вопросы для дальнейшего расследования предполагаемого домогательства, которое могло быть спровоцировано в цифровой или физической форме. Spot направлен на то, чтобы учесть пробелы в способностях HR-команд и чутко решать такие вопросы, сохраняя при этом анонимность.

Оба варианта ИИ могут работать вместе для более эффективного выявления домогательств на рабочем месте. Такие инструменты, как Spot, могут быть развернуты до привлечения юристов или персонала. 

Однако, как бы хороши ни становились #MeTooBots, разработчики видят в них лишь цифровых помощников для живых людей, а не всевидящего судью, присяжных и палача.

«Компьютеры не могут оценивать ценность общения, они говорят, что это не соответствует шаблону», - говорит представитель HR-отдела одной из британских фирм, использующих алгоритм. «В этом случае мы должны вмешаться и проверить имел ли место факт домогательства», - резюмирует она.


0 комментариев
Сортировка:
Добавить комментарий

Последние статьи

Смотреть все