Исследователи из университета North Carolina State представили инновационный подход к обучению, призванный улучшить работу программ искусственного интеллекта (ИИ), учитывая возможность искажения данных со стороны пользователей при предоставлении личной информации. Этот метод разработан для ситуаций, когда пользователи могут иметь экономические мотивы скрывать правду, например, при подаче заявок на ипотеку или при попытке снизить страховые взносы.
Согласно сообщению, опубликованному на портале Journal of Business & Economic Statistics, новый подход направлен на улучшение процесса обучения программ ИИ в ситуациях, когда у пользователей есть стимулы искажать предоставляемые атрибуты.
Исследователи утверждают, что их метод может эффективно использоваться для прогнозирования в таких сценариях, что позволяет ИИ учитывать возможные искажения данных.
Как пояснили разработчики, подход основан на популярной технике оценки Лассо и использует инструменты из многомерной статистики для определения достаточных условий, обеспечивающих совместимость с данными стимулов. Они также расширили свои результаты на новые методы нелинейного машинного обучения, что позволяет применять метод в различных ситуациях.
"Мы рассматриваем ситуации, когда пользователь передает свои атрибуты методу машинного обучения, который пытается предсказать лучший вариант на основе случайной выборки других пользователей. Подход является совместимым со стимулами, если у пользователя нет мотивации искажать свои данные. Сфокусировавшись на популярной технике оценки Лассо, мы используем инструменты из многомерной статистики для определения достаточных условий, обеспечивающих совместимость по стимулам в асимптотическом случае. Мы расширили наши результаты на новый метод нелинейного машинного обучения — метод оценки структурированной разреженности обобщенной линейной модели. Наши результаты показывают, что совместимость стимулов достигается, если в случае асимптотики параметр настройки превышает определенный порог", — прокомментировали исследователи.
Этот новый метод обучения представляет собой значимый шаг в развитии программ ИИ, делая их более адаптивными к реальным условиям и улучшая качество принимаемых ими решений в ситуациях, где данные могут быть искажены.