Эксперт Kaspersky: у нейросетей могут возникать галлюцинации
Применение искусственного интеллекта и больших языковых моделей, таких как ChatGPT и GigaChat, активно расширяется в различных областях, включая медицину. Несмотря на значительный потенциал ИИ в качестве помощника, многие специалисты выражают осторожность и скептицизм по отношению к его использованию. Одной из причин такого отношения является риск возникновения у ИИ так называемых "галлюцинаций", когда система генерирует информацию, не соответствующую действительности, пишет "Газета.ру".
Владислав Тушканов из "Лаборатории Касперского" подчеркивает, что такие галлюцинации могут приводить к созданию неверных или вымышленных данных, что особенно критично в сферах, где требуется высокая точность и надежность информации, например, в медицине, кибербезопасности или юриспруденции. Ошибка или неверное предложение от ИИ в таких областях может иметь серьезные последствия.
Проблема галлюцинаций является фундаментальной для современных языковых моделей, основанных на авторегрессионных методах. По мнению Тушканова, до тех пор, пока не будет найден другой способ генерации языка, не связанный с текущими подходами, риск возникновения галлюцинаций останется.
Это подчеркивает необходимость дальнейшего исследования и разработки в области искусственного интеллекта, чтобы уменьшить такие риски и повысить доверие к ИИ в критически важных сферах.