예를 들어, 주어진 샘플 시퀀스 x 와 비교 시퀀스 y, z:
X:3, 5, 6, 7, 7, 1
Y: 3,6,6,7,8, 1, 1
Z:2, 5, 7, 7, 7, 2
X 와 y 가 더 비슷합니까, 아니면 x 와 z 가 더 비슷합니까?
DTW 는 먼저 시퀀스 점 사이의 거리 (유클리드 거리) 를 기준으로 시퀀스 거리 행렬 MM 을 얻습니다. 여기서 행은 X 시퀀스에 해당하고, 열은 Y 시퀀스에 해당하며, 행렬 요소는 X 시퀀스와 Y 시퀀스가 해당 행과 열의 중간점에서 점까지의 유클리드 거리입니다.
DTW 는 시계열의 변동 패턴을 분석하여 시계열 분류 결과를 더 잘 얻을 수 있습니다. 연구에 따르면 DTW 거리 측정은 간단하고 가장 가까운 이웃을 결합하여 SVM, 클래식 다층 신경망, 의사 결정 트리 및 Adaboost 와 같은 기존의 유럽 거리 알고리즘보다 시계열 분류에서 더 큰 이점을 얻을 수 있습니다.
DTW 는 키오와 파자니가 제시한 서열 1 차 미분에 기반한 개선과 같은 다양한 변형을 더 많이 만들어 냈으며, 좋은 결과를 얻었습니다. 간단한 방법 중 하나는 CID (complex information distance) 라고 하며, 1 차 미분 정보를 사용하여 DTW 거리를 계산하고 몇 가지 문제에 탁월한 효과를 냅니다.
DTW 외에도 시계열을 고려하는 다른 파동 알고리즘이 있습니다. 예를 들어, 잎과 제시된 Shapelet 방법: 시퀀스의 대표 하위 시퀀스를 연구하고 Shapelet 피쳐로 분류합니다. 임 등은 특정 사전에 따라 순서를 단어 시퀀스로 변환하여 분류하는 사전 기반 방법을 제시했다. Deng 은 간격 기반 변동 피쳐 추출 방법을 제안했습니다.
이러한 방법 외에도 여러 가지 다른 알고리즘을 하나로 모으는 합산 알고리즘에 대한 연구도 큰 진전을 이루었습니다. 최근 제시된 COTE 알고리즘은 위에서 언급한 거의 모든 다른 분류 알고리즘을 모아 좋은 분류 효과를 얻었다.
이런 방법은 모두 일정한 측정 관계를 통해 관련 특징을 추출하는 방법이다. 예를 들면 단어 주머니법과 같다. 시계열에 기존 단어 패키지 (시퀀스의 모양) 와 일치하는 특성이 있는지 찾아 단어로 시퀀스를 표시한 다음 단어를 분류합니다. 기타 피쳐 기반 방법은 통계 추출, 규칙 기반 등 유사한 방법을 사용합니다. 을 누르고 분류 모델을 통해 분류합니다.
1, MLP, FCN, ResNet
MLP 의 입력은 전체 배열의 각 요소가 전체 연결로 레이어별로 가중치가 부여되어 최종 분류를 받는 벡터 (배열) 입니다. 이 방법은 모든 요소의 직접 선형 또는 비선형 상관 관계를 직접 학습하는 거친 학습 방법이지만 배열에서 더 나은 성능 특성을 깊이 파지 않고 분류 효과가 좋지 않습니다.
FCN 은 MLP 의 전체 링크 레이어를 컨볼 루션 레이어로 대체하며, 레즈망도 마찬가지지만 컨볼 루션 레이어는 1 차원 컨볼 루션 코어로 대체됩니다.
심도 신경망으로 0 부터 시작하는 시계열 분류: 강기준선' 에서 볼 수 있듯이 심도 학습 방법의 효과는 기본적으로 기존 방법에 가깝거나 능가하며, 그 중 FCN 이 전체적으로 가장 잘 표현된다는 것을 알 수 있다.
LSTM FCN 의 방법은 LSTM 과 FCN 의 두 가지 분기에 각각 입력을 입력하고 마지막으로 softmax 의 두 가지 출력 분기를 연결하여 분류 결과를 얻는 것입니다. 이 논문에서 저자는 이 방법이 FCN 보다 더 좋은 결과를 얻었다고 말한다.
다른 경기 방안 중에는 resnet+LSTM+FC 의 조합도 있습니다. 먼저 Resnet 의 1 차원 컨볼 루션을 통해 관련 특징을 추출한 다음 LSTM 을 통해 1 차원 피쳐 벡터의 연관성을 학습하여 분류합니다. 서로 다른 문제에 대해 어느 것이 더 좋은지 이해하려고 노력해야 할 수도 있다.
위의 방법에 비해 BiGRU-CNN 은 실제로 크게 개선되지 않았습니다. LSTM 분기를 양방향 GRU 분기로 바꾸는 것입니다.