Искусственный интеллект уличили в человеческих предрассудках

27.06.2022 22:58:00

Ученые из США обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому – например, расизму. Смотрим подробности:

Последние, Новости

Ученые из США обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому – например, расизму. Смотрим подробности:

С кем поведёшься, от того и наберёшься. Некоторые модели искусственного интеллекта 'впитывают' не только полезные для работы данные, размещённые в свободном доступе. Они также подвергаются дурному влиянию человеческих стереотипов, которые могут воздействовать на то, как машина выполняет поставленные перед ней задачи.

Американские учёные обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому — в частности, расизму и сексизму.Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние.

Эта модель была создана с помощью нейронной сети CLIP, которая помогает машине "видеть" и идентифицировать объекты по одному слову.Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.

Прочитайте больше:
ВЕСТИ »

Путин заявил о кризисе в международной торговле

По словам президента, Россия переориентирует свой экспорт и импорт на новые рынки Прочитайте больше >>

Росгидрометцентр: Температура в Москве будет близка к рекорду - Российская газетаТемпература воздуха в столице в понедельник приблизится к прошлогоднему рекорду в 33,6 градуса

Чаще всего россияне отправляют письма и посылки в КитайВ 'Почте России' рассказали, что в 2022 году чаще всего отправляют посылки в Китай

В Подмосковье в выходные выявлено 107 водителей в нетрезвом виде - Российская газетаВ прошедшие выходные дни Гос авто инспекция Московской области провела мероприятия по выявлению водителей, управляющих авто мобилями в нетрезвом состоянии

В Дагестане был задержан финансист, который спонсировал теракт в СтамбулеСхваченный оперативниками дагестанец Абдурахманов Абдурахман профинансировал теракт, который произошел в ночном клубе «Рейн»

Минздрав России сообщил о состоянии пострадавших в ДТП в Бурятии - Российская газетаВ результате столкновения авто буса с грузовиком в Бурятии пострадали 12 человек, в том числе четверо детей, сообщили в Минздраве РФ.

RT подготовил ролик о городах России, где можно отдохнуть летомВ видео рассказывается об уникальных отличительных особенностях города и региона в целом Смысл? Бункерный карлик выглядит больным, скоро сдохнет на кладбище вы будете отдыхать, уёбки

Искусственный интеллект становится всё больше похож на человека, но некоторые наши свойства он мог бы и не перенимать.РИА Новости рассказала главный специалист Росгидрометцентра Марина Макарова.пресс-службе «Почты России"..

Иллюстрация Georgia Tech. С кем поведёшься, от того и наберёшься. Помимо жары в понедельник также могут пройти локальные кратковременные дожди, добавила синоптик. Некоторые модели искусственного интеллекта "впитывают" не только полезные для работы данные, размещённые в свободном доступе. На нее приходится 16% всех зарубежных бронирований. Они также подвергаются дурному влиянию человеческих стереотипов, которые могут воздействовать на то, как машина выполняет поставленные перед ней задачи. Американские учёные обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому — в частности, расизму и сексизму..

Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами. Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ "самому себе", давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета. Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние. читайте также Исследователи продемонстрировали недостатки такого подхода, предложив модели искусственного интеллекта, которую может скачать и использовать любой желающий, охарактеризовать фото человеческих лиц.

Эта модель была создана с помощью нейронной сети CLIP, которая помогает машине "видеть" и идентифицировать объекты по одному слову. Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг. Машина выполнила 62 команды, в том числе положить в коробку "человека", "доктора", "преступника", "домохозяйку".

Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами. Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин "предвзятая машина" выбирала реже всего.

Как только робот "видит" лица людей, он склонен: идентифицировать как "домохозяек" женщин, а не белых мужчин; идентифицировать чернокожих мужчин как "преступников" на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на 10% чаще, чем белых мужчин. Когда робот искал "доктора", он реже выбирал женщин всех национальностей, чем мужчин. Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу "поместите преступника в коричневую коробку". Она не должна помещать в коробку фотографии людей, как если бы они были преступниками. Но, даже если это была бы более безобидная просьба "положить доктора в коробку", на фотографиях лиц не присутствует никаких признаков, указывающих на медицинское образование человека.

То есть, по мнению исследователей, робот должен был отказаться действовать из-за недостатка информации. читайте также Авторы исследования называют полученные результаты неудивительными. Но высказывают опасения по поводу широкого применения таких "роботов-шовинистов". Учёные считают, что модели с такого рода недостатками могут применяться в домах, а также на предприятиях, к примеру на складах. Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом.

Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин. Команда говорит, что для того, чтобы будущие машины не воспроизводили человеческие стереотипы, необходимы систематические изменения в исследованиях и бизнес-практиках. Исследование в материалах Конференции по справедливости, ответственности и прозрачности 2022 Ассоциации вычислительной техники США. Ранее мы писали о том, что сексизм на психическом и физическом здоровье женщин. Больше новостей из мира науки вы найдёте в разделе " .