Критики искусственного интеллекта не единственные, кто предупреждает пользователей не доверять слепо результатам работы моделей — сами компании-разработчики пишут об этом в своих условиях обслуживания.

Возьмём Microsoft, которая в настоящее время сосредоточена на привлечении корпоративных клиентов к платному Copilot. Однако компанию начали критиковать в соцсетях за условия использования Copilot, которые в последний раз обновлялись 24 октября 2025 года.

«Copilot предназначен только для развлечения. Он может допускать ошибки и работать не так, как задумано. Не полагайтесь на Copilot при получении важной информации. Используйте Copilot на свой риск», — предупредила компания.

Представитель Microsoft сообщил PCMag, что компания будет обновлять то, что они назвали «устаревшей формулировкой».

«По мере эволюции продукта эта формулировка больше не отражает, как используется Copilot сегодня, и будет изменена в нашем следующем обновлении», — сказал представитель.

Tom's Hardware отметил, что Microsoft не единственная компания, использующая такие дисклеймеры для ИИ. Например, как OpenAI, так и xAI предупреждают пользователей, что они не должны полагаться на результаты работы как на «истину» (по выражению xAI) или как на «единственный источник истины или фактической информации» (OpenAI).