Как сообщает ресурс Digitaltrends, несмотря на интерес к чат-ботам, у них по-прежнему есть проблемы, которые нужно решать. Среди этих проблем – склонность искусственного интеллекта что-нибудь придумывать и выдавать это за факт.
Проблемой это становится из-за серьезных последствий, которые может повлечь обращение пользователей к таким фактам. Авторы Digitaltrends вспомнили ситуацию, когда юрист из Нью-Йорка в своей работе сослался на предложенные ChatGPT случаи, которые не происходили в действительности.
Эти галлюцинации особенно проблематичны в областях, требующих многоэтапного рассуждения, поскольку одной логической ошибки достаточно, чтобы исказился смысл в целом», – прокомментировала компания OpenAI.
Чтобы устранить ошибки в работе ChatGPT, инженеры OpenAI работают над тем, чтобы искусственный интеллект проверял себя на каждом этапе построения вывода, а не только в конце. Система может показать лучший результат, так как ее процессы схожи с мыслительным процессом у человека, считают инженеры.
А пока специалисты OpenAI работают над устранением проблемы, Digitaltrends рекомендует проверять ответы ChatGPT, если они будут использоваться для решения важных задач.
OpenAI — американская компания, занимающаяся разработкой и лицензированием технологий на основе машинного обучения. Интересно, что, по данным ВЦИОМ, о нейросетях на 5 апреля 2023 года знали 63% россиян.
ChatGPT — чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.