Поддержать команду Зеркала
Беларусы на войне
  1. Конклав кардиналов в Ватикане выбрал папу римского. Стало известно его имя
  2. Спасатели нашли человека на дне океана. После катастрофы он пробыл там почти трое суток — рассказываем об этой истории
  3. Почему Лукашенко перенес парад в День Победы? Спросили у аналитиков
  4. Налоговики напомнили о сборе, о существовании которого вы могли даже не догадываться. Но грозит солидный штраф, если его не оплатить
  5. Лукашенко заявил, что «немного задержался» у власти, и призвал «потерпеть»
  6. «Прошение о помиловании я не писал». Большое интервью «Зеркала» с Юрием Зенковичем, которому дали 11 лет за «государственный переворот»
  7. После 2020-го на заводах по требованию Лукашенко увольняли из-за «политики» — из закрытых документов стало понятно, чем это обернулось
  8. «За чей счет?» Родители честно ответили на новый запрет для школьников
  9. Лукашенко помиловал 42 осужденных по «политическим» статьям
  10. Из Лондона Мельникова вылетела на Шри-Ланку, где могла угодить в «ловушку спецслужб» и оказаться в Беларуси — польское СМИ
  11. Сложно поверить, но папа Франциск собирался участвовать в крещении детей беларусского бизнесмена — однако умер за день до. Рассказываем
  12. Эксперты рассказали, почему Россия против соглашения о прекращении огня и присутствия миротворцев в Украине
  13. Лукашенко высказался по болезненной в последнее время для беларусов теме и предложил еще месяц потерпеть: «Это такой хитрый замысел»
  14. На рынке недвижимости в Минске возник дефицит некоторого жилья, из-за чего рекордно подскочили цены. Эксперты объяснили, что происходит


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.