python -m spacy download en_core_web_md
이렇게 설치하고
import spacy
from spacy.tokenizer import Tokenizer
nlp = spacy.load('en_core_web_sm')
# Tokenizer 생성
tokenizer = Tokenizer(nlp.vocab)
이렇게 로드했더니 다음과 같은 오류가 떴다.
[E050] Can't find model 'en_core_web_sm'. It doesn't seem to be a shortcut link, a Python package or a valid path to a data directory.
spacy를 쓸때 흔히 뜨는 오류인 모양이다.
해결책 : English 같은 language 를 별도로 설치한다.
python -m spacy download en
하고 다시 임포트 해보기.
아니면 컴퓨터 껐다가 키니 제대로 된다 ^^
'머신러닝, 딥러닝' 카테고리의 다른 글
Transformer를 사용한 인공 신경망 한영 번역기 코드 예제 실습 (0) | 2021.04.16 |
---|---|
Attention을 사용한 인공 신경망 기계 번역 만들기(한->영) (0) | 2021.04.14 |
초등학생도 이해하는 역전파 (0) | 2021.04.09 |
clf = RandomForestClassifier() 같이 변수를 설정해주는 이유 (0) | 2021.03.01 |
모델의 score - accuracy, f1, rmse, roc_auc, 뭐가 디폴트지? (0) | 2021.02.19 |