Здесь вы открываете большую банку червей, чем вы могли бы ожидать.
NN, пожалуй, лучше всего рассматривать как универсальные аппроксиматоры функций, кстати, что может помочь вам подумать об этом.
В любом случае, нет ничего особенного в вопросе NN по вашему вопросу, проблема применима к любому алгоритму обучения.
Уверенность, которую вы имеете в результатах, которые она дает, будет опираться на количество и качество (часто сложнее определить) данных обучения, которые у вас есть.
Если вы действительно заинтересованы в этом материале, вы можете немного почитать о проблемах перетренированности и методов ансамбля (мешков, повышения и т. Д.).
Настоящая проблема заключается в том, что вас обычно не интересует «правильность» (cf quality) ответа на заданный вход, который вы уже видели, а вы заботитесь о прогнозировании качества ответа на вход вы еще не видели. Это гораздо более сложная проблема. Типичные подходы затем включают «сдерживание» некоторых ваших данных обучения (т. Е. Материал, который вы знаете «правильный» ответ) и тестирование вашей обучаемой системы на это. Это становится тонким, хотя, когда вы начинаете считать, что у вас может не быть достаточного количества данных или оно может быть предвзятым и т. Д. Таким образом, есть много исследователей, которые в основном тратят все свое время на размышления об этих проблемах!
Правда; вопрос о доказательстве «правильности» очень быстро усложняется при работе с нетривиальными нейронными сетями до такой степени, что он не может быть использован для любых сетей со значительным размером. –