Как нейронные сети с локальными правилами обучения могут предсказать свои будущие входные данные?

Правила локального обучения, такие как Contrastive Hebbian Learning , XCAL и т. д., основаны на идее усиления ребер, когда нейроны, которые они соединяют, срабатывают одновременно. Это приводит к тому, что частые шаблоны во входном потоке кодируются в слоях.

Я понимаю, как это привлекает сходные паттерны ввода в выученные состояния активации. Однако я не понимаю, как эту память можно использовать для предсказания будущих входных данных. Как нейроны могут предсказывать будущие входные потоки в соответствии с локальными правилами обучения?

Начальное и конечное состояния в Hebbian Learning

Из: Введение Hebbian Learning (2005)

Что вы подразумеваете под «будущим вкладом»? Вы имеете в виду: если бы у вас была система, в которой на входе была сетка пикселей, а на выходе было число, которое представляли пиксели, как сеть обобщает обучающие примеры на тестовые?

Ответы (1)

см. Лисман, Дж. Э. и Отмахова, Н. А. (2001), Хранение, отзыв и обнаружение новизны последовательностей гиппокампом: Разработка модели СОКРАТИКА для объяснения нормальных и аберрантных эффектов дофамина. Гиппокамп, 11: 551–568. doi: 10.1002/hipo.1071: http://www.bio.brandeis.edu/lismanlab/pdf/socratic.pdf для одного предложенного механизма.

Короче говоря, локальные правила обучения могут устанавливать связи между элементами, которые появляются последовательно. если у вас есть одна сеть, шаблон которой завершает (т. е. идентифицирует) входные данные, вы можете передать эту идентификацию второй сети, которая изучает временные связи между элементами.

Не могли бы вы немного улучшить свой язык и рассказать немного подробнее?
какие еще детали вы хотите?
Спасибо за редактирование. Это звучит очень разумно. Вместе с STDP это отвечает на мой (не очень точный) вопрос.