«Плохо обученный искусственный интеллект опаснее восстания машин»
При нынешнем уровне развития искусственного интеллекта (ИИ) человечеству не грозит восстание машин. Более актуальной угрозой представляется применение недостаточно обученного ИИ в жизненно важных сферах, а также попытки его использования для того, чтобы поставить под контроль жизнь человека. Об этом шла речь на семинаре «Угрозы, которых мы не ожидали от искусственного интеллекта», проведенном Научно-учебной лаборатории трансцендентальной философии ВШЭ.
Заведующая лабораторией Светлана Климова поинтересовалась у автора доклада — приглашенного исследователя Александра Хомякова, какие опасности могут сопровождать широкое применение искусственного интеллекта. По его оценке, вероятность скорого порабощения человечества машинами сильно преувеличена, при нынешнем состоянии искусственного интеллекта это невозможно. «Можно, конечно, бояться мятежа утюгов, которые восстанут и нас всех зажарят», — иронизирует он.
Пока искусственный интеллект остается программой, а угроза заключается в человеке, который им пользуется. «Неправильное применение его человеком гораздо важнее и опаснее, чем гипотетическое восстание машин», — уверен автор исследования. Однако не все угрозы, которые может нести искусственный интеллект, нам сейчас известны, и мы можем его применять, не всегда понимая последствия, как, например, в начале XX века в косметических целях использовали радиевые маски.
Александр Хомяков напомнил, что в Европе обсуждают зоны ограничения использования ИИ. Отечественные законодатели спешат запретить его применение, но эксперт уверен, что это может привести к отставанию в развитии. И поэтому важно соблюдать баланс между развитием и предупреждением негативных последствий внедрения ИИ. Выход, по его мнению, в упреждающих действиях.
Другой проблемой становится способность искусственного интеллекта создавать и публиковать в соцсетях тексты, которые трудно отличить от написанных человеком. Так, бот, созданный одной из версий программы GPT, выдавал себя за человека в течение нескольких недель. Иногда тексты ИИ невозможно распознать как искусственные. Получается, машина может управлять даже эмоциями своего собеседника-человека. Эти боты могут писать в вашей ленте комментарии, создавать тот или иной информационный фон и даже подталкивать своего собеседника к тем или иным действиям, способствовать формированию мнения, объясняет Александр Хомяков.
Самое страшное, что тысячами сообщений в секунду может руководить какой-нибудь гениальный свихнувшийся программист с неясными целями. Это реальная угроза, когда кто-то может пытаться манипулировать людьми через искусственный интеллект
Еще одной проблемой может стать передача принятия части решений искусственному интеллекту как помощнику без адекватной оценки его возможностей. Если, например, врач полностью доверит ИИ расшифровку рентгеновских снимков, ошибочные выводы могут иметь серьезные последствия. Установка ИИ в качестве фильтра на вызовах «скорой помощи» также небезопасна. «Это может создать угрозу для жизни человека, находящегося в стрессе, речь которого недостаточно обученный искусственный интеллект может неверно интерпретировать», — рассказывает Александр Хомяков.
Однако все это не значит, что ИИ бесперспективно использовать в принципе. Обходиться без него уже невозможно. Искусственный интеллект имеет большую оперативную память и, кроме того, берет на себя рутинную работу, которую человек не хочет выполнять. МВД, например, может следить не только за автомобилями, но и за людьми. Достаточно установить камеры, настроить ИИ, и система дальше работает сама. При этом, разумеется, встают этические вопросы.
На Западе уже возникают скандалы, связанные с подбором персонала, когда ИИ обвиняют в расистских наклонностях, поскольку в выборки попало меньше людей с африканской и азиатской внешностью. В ситуациях, когда машина, ведомая автопилотом, совершила аварию с человеческими жертвами, неожиданно выясняется, что в обучающей программе не было предусмотрено перевернутого фургона, кареты «скорой помощи» или остановившейся на обочине пожарной машины.
Важно понимать, говорит Александр Хомяков, что искусственный интеллект — это программа, основанная на статистике, ее точность не превышает 95%, то есть предусмотрена 5-процентная вероятность ошибок. «Готовы ли мы к такой высокой вероятности, если это касается человеческой жизни?» — задается вопросом эксперт.
Еще одной опасностью массового внедрения искусственного интеллекта он назвал уход с рынка труда многих работников, преимущественно низкоквалифицированных, занятых рутинным трудом. Это может привести к резкому росту асоциального поведения и преступности. Есть угроза и для людей творческих профессий: в Индии ИИ разрабатывает дизайн одежды и обуви, который оказывается более привлекательным для потребителей и имеетбо́льшее количество вариантов. Есть также сайты и программы, пишущие стихи (достаточно задать две строки и первую рифму), создающие дизайн-проект интерьера. Творчество уже не всегда требует таланта человека, что таит дополнительную опасность.
Наконец, серьезную угрозу представляет возможность ухода из реальной жизни в виртуальную или дополненную. Человек может создать виртуальное окружение, населить его приятными ему искусственными людьми. «Искусственный интеллект может в вас влюбиться. Какой молодой человек откажется от такого!» — отмечает Александр Хомяков. Ведь созданный персонаж не будет «спорить, просить денег, ругать».
По его словам, уже разработаны шлем и костюмы, в которых есть специальные зоны, дающие небольшие электрические разряды, создающие разные телесные и даже эмоциональные ощущения.
Мы теряем опору в реальности, мы все больше видим собеседников через видео и социальные сети, причем их все сложнее идентифицировать, понять, реальный это человек или виртуальный образ
В будущем может возникнуть и серьезная угроза самостоятельного принятия решений искусственным интеллектом. Это, полагает Александр Хомяков, станет возможным, когда система получит модель самой себя. Тогда у нас появится ИИ, который может отказаться выполнять поставленную ему задачу и будет принимать собственные решения. Чтобы предотвратить эту угрозу, нужно заранее разработать меры, препятствующие выходу ИИ из-под контроля.
Старший научный сотрудник Научно-учебной лаборатории трансцендентальной философии ВШЭ Диана Гаспарян полагает, что описанные докладчиком угрозы неравнозначны. Уход от реальности представляется ей наименее опасным, поскольку человеку скучно общаться с искусственным интеллектом. Возможно, разработчики ИИ будут пытаться обмануть людей, создавая видимость субъектности виртуальных собеседников.
По мнению Александра Хомякова, высокую опасность виртуализации отражает вовлечение миллионов людей в компьютерные игры. Они отдают себе отчет в том, что находятся в вымышленном мире, «но играют до ночи и до красных глаз, потому что там вырабатываются эмоции». Этому, полагает эксперт, способствует качественная проработка персонажей, вызывающих симпатию игроков.
Вам также может быть интересно:
Онлайн-юрист, чат-ассистент и аватар профессора: как ученые Вышки применяют ИИ-технологии
Молодые ученые Вышки представили собственные проекты на Объединенном научном семинаре стратегического проекта «ИИ-технологии для человека» (реализуется в рамках программы «Приоритет-2030»). Решения, предложенные исследователями на базе ИИ-алгоритмов, будут полезны для развития гостиничного бизнеса, выявления манипуляций с эмпирическими данными в научных статьях, автоматизации создания юридических документов, а также во многих других сферах деятельности.
Эксперты НИУ ВШЭ исследовали, как ведется подготовка специалистов в области ИИ
Институт статистических исследований и экономики знаний НИУ ВШЭ представил доклад, подготовленный на основе результатов специализированного обследования образовательных организаций высшего образования. Целью впервые проведенной работы стало выявление масштабов и условий обучения технологиям искусственного интеллекта в рамках образовательных программ высшего образования и дополнительных профессиональных программ в вузовском секторе.
«Нам удалось провести настоящий хакатон, когда нет заранее понятного пайплайна, как получить решение»
С 13 по 20 октября в НИУ ВШЭ прошел хакатон “HSE AI Assistant Hack: Python”, организованный факультетом компьютерных наук и Центром искусственного интеллекта ВШЭ. За призовые места боролись 89 студенческих команд из ведущих вузов страны.
Ученые Вышки представили разработки, связанные с применением ИИ в медицине
Искусственный интеллект не заменит врача, но может стать ему отличным помощником. При этом здравоохранение нуждается в высокотехнологичных продуктах, которые способны быстро анализировать и контролировать состояние пациентов. Ученые Вышки применили ИИ для предоперационного планирования и постоперационной оценки результатов в спинальной хирургии и разработали автоматическую интеллектуальную систему для оценки биомеханики рук и ног.
Ученые Вышки представили проекты по этической экспертизе в сфере ИИ
Технологии искусственного интеллекта уже стали неотъемлемой частью повседневной жизни и активно применяются в различных отраслях экономики. Однако этические вопросы использования ИИ все еще требуют обсуждения и осмысления. Сегодня в России с участием ученых НИУ ВШЭ ведется работа над несколькими отраслевыми приложениями к национальному Кодексу этики в сфере ИИ, в которых будут конкретные рекомендации в помощь каждому, кто нуждается в понимании и анализе рисков и угроз со стороны ИИ.
Три команды ВШЭ стали победителями на всероссийском хакатоне «Цифровой прорыв»
В конце сентября в Москве состоялся всероссийский хакатон «Цифровой прорыв. Сезон: Искусственный интеллект». На соревнование собрались 314 команд и 1616 человек со всей страны. Они состязались в решении задач от партнеров хакатона — государственных организаций и компаний: «РЖД», «Росатома», Центра робототехники Сбера, «Сколтеха» и многих других. Три команды студентов факультета компьютерных наук НИУ ВШЭ приняли участие в хакатоне и выиграли в двух кейсах.
С помощью ученых НИУ ВШЭ и Сбера преподаватели смогут повысить качество онлайн-обучения
Ученые Центра искусственного интеллекта НИУ ВШЭ и исследователи Лаборатории искусственного интеллекта Сбербанка научились определять вовлеченность участников онлайн-мероприятий. Метод, основанный на анализе видео лица, помогает выявить, насколько слушатель заинтересован в материале. Научная статья о проведенном исследовании опубликована в рамках Международной конференции по искусственному интеллекту в образовании — AIED 2024.
Вышка расширит сотрудничество с Агентством стратегических инициатив для разработки передовых решений
В Высшей школе экономики прошел День знакомства университета и Агентства стратегических инициатив (АСИ). Стороны представили свои исследовательские и аналитические проекты и наметили направления совместной работы. Задача ученых и экспертов — повысить эффективность и ускорить внедрение в практику прорывных научных разработок по широкому спектру направлений — от экономических прогнозов до нейропротезирования.
Исследователи НИУ ВШЭ и Сбера добавят эмоций искусственному интеллекту
Ученые Центра искусственного интеллекта НИУ ВШЭ и исследователи Лаборатории искусственного интеллекта Сбербанка разработали специальную систему, которая с помощью больших языковых моделей сделает искусственный интеллект (AI) более эмоциональным при общении с человеком. Синтезом AI-эмоций займутся набирающие популярность мультиагентные модели. Научная работа о проведенном исследовании опубликована в рамках Международной совместной конференции по искусственному интеллекту — IJCAI 2024.
Вышка и «Яндекс» научат преподавателей российских вузов ИИ-грамотности
«Яндекс Образование» и факультет компьютерных наук НИУ ВШЭ (ФКН ВШЭ) создали совместный онлайн-гайд, посвященный промптингу — формулированию запросов к нейросетям. Он доступен всем на платформе «Яндекса» и в первую очередь будет полезен преподавателям, которые никогда не пользовались GPT в работе или только начинают применять ИИ-инструменты. Как правильно создать запрос к нейросети? Как грамотно использовать GPT-модели в образовательных целях? Какие задачи преподаватели могут решать с помощью искусственного интеллекта? Гайд отвечает на эти и другие вопросы по работе с нейросетями.