Правила локального обучения, такие как Contrastive Hebbian Learning , XCAL и т. д., основаны на идее усиления ребер, когда нейроны, которые они соединяют, срабатывают одновременно. Это приводит к тому, что частые шаблоны во входном потоке кодируются в слоях.
Я понимаю, как это привлекает сходные паттерны ввода в выученные состояния активации. Однако я не понимаю, как эту память можно использовать для предсказания будущих входных данных. Как нейроны могут предсказывать будущие входные потоки в соответствии с локальными правилами обучения?
см. Лисман, Дж. Э. и Отмахова, Н. А. (2001), Хранение, отзыв и обнаружение новизны последовательностей гиппокампом: Разработка модели СОКРАТИКА для объяснения нормальных и аберрантных эффектов дофамина. Гиппокамп, 11: 551–568. doi: 10.1002/hipo.1071: http://www.bio.brandeis.edu/lismanlab/pdf/socratic.pdf для одного предложенного механизма.
Короче говоря, локальные правила обучения могут устанавливать связи между элементами, которые появляются последовательно. если у вас есть одна сеть, шаблон которой завершает (т. е. идентифицирует) входные данные, вы можете передать эту идентификацию второй сети, которая изучает временные связи между элементами.
Шонни123