В США появилась система оценки надежности искусственного интеллекта

Для заблаговременной оценки способности ИИ решать реальные задачи требуется новая методика. Эта разработка была проведена совместными усилиями Массачусетского технологического института (MIT) и компании IBM Watson.

Американские исследователи из MIT и лаборатории IBM Watson представили систему General Purpose AI, которая проверяет надежность ИИ для выполнения конкретных задач.

Модели искусственного интеллекта, такие как нейросети ChatGPT и DALL-E, обучаются на огромных объемах данных, что может привести к ошибкам в критических ситуациях.

Чтобы избежать таких ошибок, ученые создают множество немного отличающихся моделей нейросетей и оценивают их согласованность. Этот процесс позволяет достаточно точно определить надежность работы ИИ в реальных сценариях.