홉필드 예제

Postato il 2 Ago 2019 in Senza categoria

홉필드 그물은 네트워크의 “에너지”, E, 라고도 하는 네트워크의 각 상태와 연관된 스칼라 값을 가지며, 여기서: Hopfield 네트워크의 메모리에 정보를 저장하는데 사용될 수 있는 다양한 학습 규칙이 있다. 학습 규칙은 다음 두 속성을 모두 사용하는 것이 바람직합니다: Hopfield net의 연결에는 일반적으로 다음과 같은 제한이 있습니다: 이 규칙은 1997년에 Amos Storkey에 의해 도입되었으며 로컬 및 증분 모두입니다. Storkey는 또한 이 규칙을 사용하여 학습된 Hopfield 네트워크가 Hebbian 규칙을 사용하여 학습된 해당 네트워크보다 더 큰 용량을 가지고 있음을 보여주었습니다. [6] 유치신경망의 가중치 매트릭스[필요한 설명]는 Storkey 학습 규칙을 따르는 것으로 합니다: Hopfield 그물의 단위는 이진 임계값 단위이며, 즉 단위는 해당 상태에 대해 두 개의 서로 다른 값만 가지고 값이 됩니다. 단위의 입력이 임계값을 초과하는지 여부에 따라 결정됩니다. Hopfield 그물은 일반적으로 1 또는 -1의 값을 사용하는 단위를 가지며 이 규칙은 이 문서 전체에서 사용됩니다. 그러나 다른 문헌에서는 0과 1의 값을 사용하는 단위를 사용할 수 있습니다. Hopfield 모델은 메모리 벡터의 통합을 통해 연관 메모리를 차지합니다. 메모리 벡터는 약간 사용될 수 있으며, 이것은 네트워크에서 가장 유사한 벡터의 검색을 촉발시킬 것입니다. 그러나이 프로세스로 인해 침입이 발생할 수 있음을 알게 될 것입니다. Hopfield 네트워크에 대한 연관 메모리에는 자동 연결 과 이종 연결의 두 가지 유형이 있습니다. 첫 번째 는 벡터가 자체와 연관되어 있고, 두 개의 서로 다른 벡터가 저장소에 연관된 경우의 첫 번째 존재입니다.

또한 두 가지 유형의 작업 모두 단일 메모리 매트릭스 내에 저장할 수 있지만 주어진 표현 행렬이 하나 또는 다른 작업의 행렬이 아니라 두 가지의 조합(자동 연관 및 이종 연관)인 경우에만 저장이 가능합니다. Hopfield의 네트워크 모델은 Hebb의 (1949) 학습 규칙과 동일한 학습 규칙을 사용하며, 기본적으로 활동이 발생할 때 가중치를 강화한 결과로 학습이 발생한다는 것을 보여주려고 노력했습니다. 이러한 특성은 생물학적으로 더 그럴듯하기 때문에 바람직한 것입니다. 예를 들어, 인간의 뇌는 항상 새로운 개념을 배우고 있기 때문에, 하나는 인간의 학습이 증분이라고 추론 할 수 있습니다. 증분되지 않은 학습 시스템은 일반적으로 방대한 양의 학습 데이터와 함께 한 번만 학습됩니다. 스퓨리어스 상태는 홀수 의 검색 상태의 선형 조합일 수도 있습니다. 예를 들어, 3패턴 μ 1 , μ 2 , μ 3 {디스플레이 스타일 mu _{1}, mu _{2}, mu _{3}}를 사용하는 경우, 다음과 같은 가짜 상태를 얻을 수 있습니다: 홉필드 네트워크의 업데이트는 두 가지 방법으로 수행될 수 있습니다: McCulloch 와 Pitts` (1943) 동적 규칙 뉴런의 행동은 여러 뉴런의 활성화가 새로운 뉴런의 발사 속도에 어떻게 매핑되는지, 그리고 뉴런의 가중치가 새로운 활성화 된 뉴런 사이의 시냅스 연결을 강화하는 방법을 보여주는 방식으로 수행됩니다 (그리고 뉴런의 활성화 된 뉴런과 뉴런의 활성화 활성화)를 활성화했습니다.