Google объявил о создании группы по этике AI, которая будет решать, как компании должны ответственно использовать и развивать проекты AI. Совет, состоящий из разнообразных представителей академических, корпоративных и правительственных кругов, будет регулярно собираться в 2019 году для обсуждения вопросов, которые ставит AI.
Панель является продолжением Принципов искусственного интеллекта Google, которые представляют собой широкий набор целей, которые компания поставила перед собой в прошлом году после критики по поводу ее участия в военных контрактах.
Что это за группа и каковы ее цели?
Внешний консультативный совет по передовым технологиям (ATEAC) был представлен старшим вице-президентом Google Кентом Уокером в своем блоге. Согласно сообщению, эта панель является расширением целей Google по ответственному использованию и созданию AI. Некоторые из задач, которые были поставлены перед этой группой, включают распознавание лиц и машинное обучение.
Совет будет работать в течение 2019 года и проведет четыре заседания в этот период, первое из которых состоится в апреле. В своем блоге Google заявляет, что будет поощрять членов совета делиться знаниями и публиковать отчет, в котором резюмируются обсуждения.
Каковы принципы Google AI?
Объявленные в прошлом году Принципы искусственного интеллекта Google, являются прямой реакцией на решение не продлевать свой контракт с Пентагоном на предоставление дронов искусственного интеллекта.
Работа Google в этой области оказалась противоречивой, что вызвало несколько увольнений сотрудников Google. Похоже, что это растущая проблема в техническом пространстве, и другие компании, такие как Microsoft, чувствуют жар от своей работы с оборонными ведомствами. Принципы искусственного интеллекта Google заложили в основу его мандат на будущее, и, хотя компания была осмеяна за то, что исключила свою политику «Не будь злым» из своего кодекса поведения (заменив ее на «Делай правильные вещи»), принципы искусственного интеллекта могут пойти гораздо дальше, чем просто слоган.
Вот список этих принципов:
Будьте социально выгодными: недостаточно, чтобы проект AI был прибыльным, он также должен оказывать положительное влияние на общество
Избегайте создания или усиления несправедливой предвзятости: как обнаружили другие технологические компании, AI в значительной степени полагается на свои наборы данных, которые могут искажаться при участии человека. Amazon обнаружил это, когда его AI, принимающий на работу, принимал сексистские решения и отдавал предпочтение мужчинам, исключительно из-за человеческих поведенческих тенденций, которыми он питался.
Будьте ориентированы на безопасность. Рост AI окажет большое влияние на нашу безопасность, особенно в таких областях, как автоматизированная транспортировка, где решения о жизни и смерти доверяются машине.
Будьте ответственны перед людьми. Google заявляет, что его проекты AI будут открыты для обратной связи и будут зависеть от руководства и контроля со стороны человека.
Включите принципы конфиденциальности. AI Google будет иметь встроенную защиту данных, и любая собранная информация будет прозрачной и предоставит пользователю контроль над тем, что собирается.
Отстаивайте высокие стандарты научного совершенства. Google стремится делиться своими знаниями об искусственном интеллекте с ключевыми заинтересованными сторонами, чтобы открыть новые возможности для технологии через сотрудничество.
Компания обещает, что она ограничит способность AI наносить вред обществу или лицам, злоупотребляющим приложениями. Кроме того, есть области, в которых Google пообещал, что не будет применять свой AI. К ним относятся слежка, которая «противоречит международным нормам», технологии, которые нарушают права человека, и оружие, которое нацелено на причинение вреда людям (хотя компания будет продолжать работать с военными в вопросах вербовки, кибербезопасности, а также поиска и спасения).
Кто участники группы?
ATEAC состоит из восьми ключевых заинтересованных сторон, имеющих многолетний опыт работы в сфере искусственного интеллекта в корпоративной, академической и правительственной сферах. Google дает понять, что группа представляет свои собственные перспективы, и не говорит от имени учреждений, с которыми они связаны.
Алессандро Аквити - профессор информационных технологий и государственной политики в колледже Хайнца, Университет Карнеги-Меллона
Бубакарр Бах - старший научный сотрудник по математике со специализацией в области наук о данных в Африканском институте математических наук в Южной Африке и доцент кафедры математических наук в университете Стелленбош.
Де Кай - профессор компьютерных наук и инженерии в Гонконгском университете науки и техники и выдающийся научный сотрудник Международного института компьютерных наук в Беркли.
Дайан Гиббенс - генеральный директор Trumbull, стартапа, специализирующегося на автоматизации, данных и экологической устойчивости в энергетике и обороне.
Джоан Брайсон - доцент кафедры информатики в Университете Бата. Также консультант LEGO по его линии программирования Mindstorms, ориентированной на ребенка.
Кей Коулз Джеймс - президент Фонда наследия, который уделяет особое внимание свободному предпринимательству, ограниченному правительству, индивидуальной свободе и национальной обороне.
Лучиан Флориди - профессор философии и этики информации в Оксфордском университете, профессор-преподаватель Эксетер-колледжа, член-корреспондент Тьюринга и председатель группы по этике данных Института Алана Тьюринга.
Уильям Джозеф Бернс - предыдущий заместитель госсекретаря США. Президент Фонда Карнеги, старейшего международного аналитического центра в Соединенных Штатах.
С учетом темпов развития сектора AI эти принципы, безусловно, представляют собой важный кодекс заявленного поведения. Конечно, еще предстоит выяснить, насколько хорошо Google будет поддерживать эти высокие цели.
0 комментариев
Добавить комментарий