Общество

Эксперт Тушканов: полное доверие ИИ опасно, он может и будет ошибаться

Эксперт Тушканов: полное доверие ИИ опасно, он может и будет ошибатьсяНейросеть. Архивное фото

Полное доверие нейросетям в недалеком будущем может сыграть злую шутку — они все еще нередко ошибаются, что в критических ситуациях может иметь серьезные последствия, также таким чрезмерным доверием могут воспользоваться и злоумышленники, рассказал РИА Новости руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов. «»Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна. Мы, как человеческий вид, к такому не были готовы. Если что-то хорошо, красиво говорит, особенно, если это компьютер, значит, это нечто разумное, и мы склонны ему верить, а оно может ошибаться, и нередко», — сказал он.

Эта проблема, отмечает эксперт, называется overreliance (чрезмерное доверие или зависимость), когда большие языковые модели начинают использоваться как помощники и инструменты для оптимизации процессов и облегчения какого-то рутинного интеллектуального труда, входят в жизнь человека, и пользователь начинает на них излишне полагаться.

«Это вероятностные алгоритмы, они имитируют человеческую речь, текст, написанный человеком, но это не всегда верно фактологически, а система все равно уверенно подает нам это как истину — такие ситуации называются галлюцинациями. И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять — это главный риск», — говорит Тушканов.

Эта тема опубликована в виде статьи на сайте ria.ru

Related Articles

Back to top button