Package tomotopy
tomotopy 패키지는 Python에서 사용가능한 다양한 토픽 모델링 타입과 함수를 제공합니다.
내부 모듈은 c++로 작성되었기 때문에 빠른 속도를 자랑합니다.
tomotopy 란?
tomotopy는 토픽 모델링 툴인 tomoto의 Python 확장 버전입니다. tomoto는 c++로 작성된 깁스 샘플링 기반의 토픽 모델링 라이브러리로,
최신 CPU의 벡터화 기술을 활용하여 처리 속도를 최대로 끌어올렸습니다.
현재 버전의 tomoto에서는 다음과 같은 주요 토픽 모델들을 지원하고 있습니다.
- Latent Dirichlet Allocation (
LDAModel) - Labeled LDA (
LLDAModel) - Partially Labeled LDA (
PLDAModel) - Supervised LDA (
SLDAModel) - Dirichlet Multinomial Regression (
DMRModel) - Generalized Dirichlet Multinomial Regression (
GDMRModel) - Hierarchical Dirichlet Process (
HDPModel) - Hierarchical LDA (
HLDAModel) - Multi Grain LDA (
MGLDAModel) - Pachinko Allocation (
PAModel) - Hierarchical PA (
HPAModel) - Correlated Topic Model (
CTModel) - Dynamic Topic Model (
DTModel) - Pseudo-document based Topic Model (
PTModel)
시작하기
다음과 같이 pip를 이용하면 tomotopy를 쉽게 설치할 수 있습니다. (https://pypi.org/project/tomotopy/) ::
$ pip install --upgrade pip
$ pip install tomotopy
지원하는 운영체제 및 Python 버전은 다음과 같습니다:
- Python 3.6 이상이 설치된 Linux (x86-64)
- Python 3.6 이상이 설치된 macOS 10.13나 그 이후 버전
- Python 3.6 이상이 설치된 Windows 7이나 그 이후 버전 (x86, x86-64)
- Python 3.6 이상이 설치된 다른 운영체제: 이 경우는 c++14 호환 컴파일러를 통한 소스코드 컴파일이 필요합니다.
설치가 끝난 뒤에는 다음과 같이 Python3에서 바로 import하여 tomotopy를 사용할 수 있습니다. ::
import tomotopy as tp
print(tp.isa) # 'avx2'나 'avx', 'sse2', 'none'를 출력합니다.
현재 tomotopy는 가속을 위해 AVX2, AVX or SSE2 SIMD 명령어 세트를 활용할 수 있습니다.
패키지가 import될 때 현재 환경에서 활용할 수 있는 최선의 명령어 세트를 확인하여 최상의 모듈을 자동으로 가져옵니다.
만약 tp.isa가 none이라면 현재 환경에서 활용 가능한 SIMD 명령어 세트가 없는 것이므로 훈련에 오랜 시간이 걸릴 수 있습니다.
그러나 최근 대부분의 Intel 및 AMD CPU에서는 SIMD 명령어 세트를 지원하므로 SIMD 가속이 성능을 크게 향상시킬 수 있을 것입니다.
간단한 예제로 'sample.txt' 파일로 LDA 모델을 학습하는 코드는 다음과 같습니다. ::
import tomotopy as tp
mdl = tp.LDAModel(k=20)
for line in open('sample.txt'):
mdl.add_doc(line.strip().split())
for i in range(0, 100, 10):
mdl.train(10)
print('Iteration: {}\tLog-likelihood: {}'.format(i, mdl.ll_per_word))
for k in range(mdl.k):
print('Top 10 words of topic #{}'.format(k))
print(mdl.get_topic_words(k, top_n=10))
mdl.summary()
Tomotopy의 성능
tomotopy는 주제 분포와 단어 분포를 추론하기 위해 Collapsed Gibbs-Sampling(CGS) 기법을 사용합니다.
일반적으로 CGS는 gensim의 LdaModel가 이용하는 Variational Bayes(VB) 보다 느리게 수렴하지만 각각의 반복은 빠르게 계산 가능합니다.
게다가 tomotopy는 멀티스레드를 지원하므로 SIMD 명령어 세트뿐만 아니라 다중 코어 CPU의 장점까지 활용할 수 있습니다. 이 덕분에 각각의 반복이 훨씬 빠르게 계산 가능합니다.
다음의 차트는 tomotopy와 gensim의 LDA 모형 실행 시간을 비교하여 보여줍니다.
입력 문헌은 영어 위키백과에서 가져온 1000개의 임의 문서이며 전체 문헌 집합은 총 1,506,966개의 단어로 구성되어 있습니다. (약 10.1 MB).
tomotopy는 200회를, gensim 10회를 반복 학습하였습니다.

↑ Intel i5-6600, x86-64 (4 cores)에서의 성능

↑ Intel Xeon E5-2620 v4, x86-64 (8 cores, 16 threads)에서의 성능

↑ AMD Ryzen7 3700X, x86-64 (8 cores, 16 threads)에서의 성능
tomotopy가 20배 더 많이 반복하였지만 전체 실행시간은 gensim보다 5~10배 더 빨랐습니다. 또한 tomotopy는 전반적으로 안정적인 결과를 보여주고 있습니다.
CGS와 VB는 서로 접근방법이 아예 다른 기법이기 때문에 둘을 직접적으로 비교하기는 어렵습니다만, 실용적인 관점에서 두 기법의 속도와 결과물을 비교해볼 수 있습니다. 다음의 차트에는 두 기법이 학습 후 보여준 단어당 로그 가능도 값이 표현되어 있습니다.

tomotopy가 생성한 주제들의 상위 단어 | |
|---|---|
| #1 | use, acid, cell, form, also, effect |
| #2 | use, number, one, set, comput, function |
| #3 | state, use, may, court, law, person |
| #4 | state, american, nation, parti, new, elect |
| #5 | film, music, play, song, anim, album |
| #6 | art, work, design, de, build, artist |
| #7 | american, player, english, politician, footbal, author |
| #8 | appl, use, comput, system, softwar, compani |
| #9 | day, unit, de, state, german, dutch |
| #10 | team, game, first, club, leagu, play |
| #11 | church, roman, god, greek, centuri, bc |
| #12 | atom, use, star, electron, metal, element |
| #13 | alexand, king, ii, emperor, son, iii |
| #14 | languag, arab, use, word, english, form |
| #15 | speci, island, plant, famili, order, use |
| #16 | work, univers, world, book, human, theori |
| #17 | citi, area, region, popul, south, world |
| #18 | forc, war, armi, militari, jew, countri |
| #19 | year, first, would, later, time, death |
| #20 | apollo, use, aircraft, flight, mission, first |
gensim이 생성한 주제들의 상위 단어 | |
|---|---|
| #1 | use, acid, may, also, azerbaijan, cell |
| #2 | use, system, comput, one, also, time |
| #3 | state, citi, day, nation, year, area |
| #4 | state, lincoln, american, war, union, bell |
| #5 | anim, game, anal, atari, area, sex |
| #6 | art, use, work, also, includ, first |
| #7 | american, player, english, politician, footbal, author |
| #8 | new, american, team, season, leagu, year |
| #9 | appl, ii, martin, aston, magnitud, star |
| #10 | bc, assyrian, use, speer, also, abort |
| #11 | use, arsen, also, audi, one, first |
| #12 | algebra, use, set, ture, number, tank |
| #13 | appl, state, use, also, includ, product |
| #14 | use, languag, word, arab, also, english |
| #15 | god, work, one, also, greek, name |
| #16 | first, one, also, time, work, film |
| #17 | church, alexand, arab, also, anglican, use |
| #18 | british, american, new, war, armi, alfr |
| #19 | airlin, vote, candid, approv, footbal, air |
| #20 | apollo, mission, lunar, first, crew, land |
어떤 SIMD 명령어 세트를 사용하는지는 성능에 큰 영향을 미칩니다. 다음 차트는 SIMD 명령어 세트에 따른 성능 차이를 보여줍니다.

다행히도 최신 x86-64 CPU들은 대부분 AVX2 명령어 세트를 지원하기 때문에 대부분의 경우 AVX2의 높은 성능을 활용할 수 있을 것입니다.
Cf와 Df를 이용한 어휘 통제
CF(collection frequency, 장서 빈도)와 DF(document frequency, 문헌 빈도)는 정보검색에서 다루는 개념들로,
각각 전체 코퍼스 내에서 특정 단어가 등장하는 총 빈도와 전체 코퍼스 내에서 특정 단어가 등장하는 문헌들의 빈도를 가리킵니다.
tomotopy는 코퍼스 구축시 저빈도 어휘를 잘라낼 수 있도록 이 두가지 척도를 각각 min_cf와 min_df라는 파라미터로 사용합니다.
구체적으로, 다음처럼 구성된 문헌 #0 ~ #4를 가지고 예를 들어 보자면 ::
#0 : a, b, c, d, e, c
#1 : a, b, e, f
#2 : c, d, c
#3 : a, e, f, g
#4 : a, b, g
a와 c는 각각 전체 코퍼스에서 4번 등장했으므로 CF는 둘 다 4입니다.
반면 a는 #0, #1, #3, #4 문헌에서 등장했으므로 DF가 4지만, c는 #0과 #2에서만 등장했으므로 DF가 2입니다.
따라서 min_cf=3을 기준으로 저빈도 어휘를 잘라낸다면 결과는 다음과 같이 됩니다.
::
(d, f, g 가 삭제됨)
#0 : a, b, c, e, c
#1 : a, b, e
#2 : c, c
#3 : a, e
#4 : a, b
그러나 min_df=3를 기준으로 잘라내면 다음과 같습니다.
::
(c, d, f, g가 삭제됨)
#0 : a, b, e
#1 : a, b, e
#2 : (빈 문헌)
#3 : a, e
#4 : a, b
위 예시에서 확인할 수 있듯 min_df가 min_cf보다 더 강력한 조건입니다.
토픽 모델링을 수행함에 있어 한 문헌에서만 여러 번 등장하는 단어는 전체 토픽-단어 분포를 추정하는데 영향을 미치지 못합니다.
따라서 df가 작은 어휘들을 제거하면 최종 결과에 거의 영향을 미치지 않으며 모델 크기는 크게 줄일 수 있습니다.
그러므로 어휘 크기를 통제할 때는 min_cf보다는 min_df를 사용하는 걸 추천합니다.
모델의 저장과 불러오기
tomotopy는 각각의 토픽 모델 클래스에 대해 save와 load 메소드를 제공합니다.
따라서 학습이 끝난 모델을 언제든지 파일에 저장하거나, 파일로부터 다시 읽어와서 다양한 작업을 수행할 수 있습니다.
::
import tomotopy as tp
mdl = tp.HDPModel()
for line in open('sample.txt'):
mdl.add_doc(line.strip().split())
for i in range(0, 100, 10):
mdl.train(10)
print('Iteration: {}\tLog-likelihood: {}'.format(i, mdl.ll_per_word))
# 파일에 저장
mdl.save('sample_hdp_model.bin')
# 파일로부터 불러오기
mdl = tp.HDPModel.load('sample_hdp_model.bin')
for k in range(mdl.k):
if not mdl.is_live_topic(k): continue
print('Top 10 words of topic #{}'.format(k))
print(mdl.get_topic_words(k, top_n=10))
# 저장된 모델이 HDP 모델이었기 때문에,
# LDA 모델에서 이 파일을 읽어오려고 하면 예외가 발생합니다.
mdl = tp.LDAModel.load('sample_hdp_model.bin')
파일로부터 모델을 불러올 때는 반드시 저장된 모델의 타입과 읽어올 모델의 타입이 일치해야합니다.
이에 대해서는 LDAModel.save()와 LDAModel.load()에서 더 자세한 내용을 확인할 수 있습니다.
모델 안의 문헌과 모델 밖의 문헌
토픽 모델은 크게 2가지 목적으로 사용할 수 있습니다. 기본적으로는 문헌 집합으로부터 모델을 학습하여 문헌 내의 주제들을 발견하기 위해 토픽 모델을 사용할 수 있으며, 더 나아가 학습된 모델을 활용하여 학습할 때는 주어지지 않았던 새로운 문헌에 대해 주제 분포를 추론하는 것도 가능합니다. 전자의 과정에서 사용되는 문헌(학습 과정에서 사용되는 문헌)을 모델 안의 문헌, 후자의 과정에서 주어지는 새로운 문헌(학습 과정에 포함되지 않았던 문헌)을 모델 밖의 문헌이라고 가리키도록 하겠습니다.
tomotopy에서 이 두 종류의 문헌을 생성하는 방법은 다릅니다. 모델 안의 문헌은 LDAModel.add_doc()을 이용하여 생성합니다.
add_doc은 LDAModel.train()을 시작하기 전까지만 사용할 수 있습니다.
즉 train을 시작한 이후로는 학습 문헌 집합이 고정되기 때문에 add_doc을 이용하여 새로운 문헌을 모델 내에 추가할 수 없습니다.
또한 생성된 문헌의 인스턴스를 얻기 위해서는 다음과 같이 LDAModel.docs를 사용해야 합니다.
::
mdl = tp.LDAModel(k=20)
idx = mdl.add_doc(words)
if idx < 0: raise RuntimeError("Failed to add doc")
doc_inst = mdl.docs[idx]
# doc_inst is an instance of the added document
모델 밖의 문헌은 LDAModel.make_doc()을 이용해 생성합니다. make_doc은 add_doc과 반대로 train을 시작한 이후에 사용할 수 있습니다.
만약 train을 시작하기 전에 make_doc을 사용할 경우 올바르지 않은 결과를 얻게 되니 이 점 유의하시길 바랍니다. make_doc은 바로 인스턴스를 반환하므로 반환값을 받아 바로 사용할 수 있습니다.
::
mdl = tp.LDAModel(k=20)
# add_doc ...
mdl.train(100)
doc_inst = mdl.make_doc(unseen_words) # doc_inst is an instance of the unseen document
새로운 문헌에 대해 추론하기
LDAModel.make_doc()을 이용해 새로운 문헌을 생성했다면 이를 모델에 입력해 주제 분포를 추론하도록 할 수 있습니다.
새로운 문헌에 대한 추론은 LDAModel.infer()를 사용합니다.
::
mdl = tp.LDAModel(k=20)
# add_doc ...
mdl.train(100)
doc_inst = mdl.make_doc(unseen_words)
topic_dist, ll = mdl.infer(doc_inst)
print("Topic Distribution for Unseen Docs: ", topic_dist)
print("Log-likelihood of inference: ", ll)
infer 메소드는 Document 인스턴스 하나를 추론하거나 Document 인스턴스의 list를 추론하는데 사용할 수 있습니다.
자세한 것은 LDAModel.infer()을 참조하길 바랍니다.
Corpus와 Transform
tomotopy의 모든 토픽 모델들은 각자 별도의 내부적인 문헌 타입을 가지고 있습니다.
그리고 이 문헌 타입들에 맞는 문헌들은 각 모델의 add_doc 메소드를 통해 생성될 수 있습니다.
하지만 이 때문에 동일한 목록의 문헌들을 서로 다른 토픽 모델에 입력해야 하는 경우
매 모델에 각 문헌을 추가할때마다 add_doc을 호출해야하기 때문에 비효율이 발생합니다.
따라서 tomotopy에서는 여러 문헌을 묶어서 관리해주는 Corpus 클래스를 제공합니다.
토픽 모델 객체를 생성할때 Corpus를 __init__ 메소드의 corpus 인자로 넘겨줌으로써
어떤 모델에든 쉽게 문헌들을 삽입할 수 있게 해줍니다.
Corpus를 토픽 모델에 삽입하면 corpus 객체가 가지고 있는 문헌들 전부가 모델에 자동으로 삽입됩니다.
그런데 일부 토픽 모델의 경우 문헌을 생성하기 위해 서로 다른 데이터를 요구합니다.
예를 들어 DMRModel는 metadata라는 str 타입의 데이터를 요구하고,
PLDAModel는 labels라는 List[str] 타입의 데이터를 요구합니다.
그러나 Corpus는 토픽 모델에 종속되지 않은 독립적인 문헌 데이터를 보관하기 때문에,
corpus가 가지고 있는 문헌 데이터가 실제 토픽 모델이 요구하는 데이터와 일치하지 않을 가능성이 있습니다.
이 경우 transform라는 인자를 통해 corpus 내의 데이터를 변형시켜 토픽 모델이 요구하는 실제 데이터와 일치시킬 수 있습니다.
자세한 내용은 아래의 코드를 확인해주세요:
::
from tomotopy import DMRModel
from tomotopy.utils import Corpus
corpus = Corpus()
corpus.add_doc("a b c d e".split(), a_data=1)
corpus.add_doc("e f g h i".split(), a_data=2)
corpus.add_doc("i j k l m".split(), a_data=3)
model = DMRModel(k=10)
model.add_corpus(corpus)
# <code>corpus</code>에 있던 <code>a\_data</code>는 사라지고
# <code>DMRModel</code>이 요구하는 <code>metadata</code>에는 기본값인 빈 문자열이 채워집니다.
assert model.docs[0].metadata == ''
assert model.docs[1].metadata == ''
assert model.docs[2].metadata == ''
def transform_a_data_to_metadata(misc: dict):
return {'metadata': str(misc['a_data'])}
# 이 함수는 <code>a\_data</code>를 <code>metadata</code>로 변환합니다.
model = DMRModel(k=10)
model.add_corpus(corpus, transform=transform_a_data_to_metadata)
# 이제 <code>model</code>에는 기본값이 아닌 <code>metadata</code>가 입력됩니다. 이들은 <code>transform</code>에 의해 <code>a\_data</code>로부터 생성됩니다.
assert model.docs[0].metadata == '1'
assert model.docs[1].metadata == '2'
assert model.docs[2].metadata == '3'
병렬 샘플링 알고리즘
tomotopy는 0.5.0버전부터 병렬 알고리즘을 고를 수 있는 선택지를 제공합니다.
0.4.2 이전버전까지 제공되던 알고리즘은 COPY_MERGE로 이 기법은 모든 토픽 모델에 사용 가능합니다.
새로운 알고리즘인 PARTITION은 0.5.0이후부터 사용가능하며, 이를 사용하면 더 빠르고 메모리 효율적으로 학습을 수행할 수 있습니다. 단 이 기법은 일부 토픽 모델에 대해서만 사용 가능합니다.
다음 차트는 토픽 개수와 코어 개수에 따라 두 기법의 속도 차이를 보여줍니다.


버전별 속도 차이
아래 그래프는 버전별 속도 차이를 표시한 것입니다. LDA모델로 1000회 iteration을 수행시 걸리는 시간을 초 단위로 표시하였습니다. (Docs: 11314, Vocab: 60382, Words: 2364724, Intel Xeon Gold 5120 @2.2GHz)



어휘 사전분포를 이용하여 주제 고정하기
0.6.0 버전부터 LDAModel.set_word_prior()라는 메소드가 추가되었습니다. 이 메소드로 특정 단어의 사전분포를 조절할 수 있습니다.
예를 들어 다음 코드처럼 단어 'church'의 가중치를 Topic 0에 대해서는 1.0, 나머지 Topic에 대해서는 0.1로 설정할 수 있습니다.
이는 단어 'church'가 Topic 0에 할당될 확률이 다른 Topic에 할당될 확률보다 10배 높다는 것을 의미하며, 따라서 대부분의 'church'는 Topic 0에 할당되게 됩니다.
그리고 학습을 거치며 'church'와 관련된 단어들 역시 Topic 0에 모이게 되므로, 최종적으로 Topic 0은 'church'와 관련된 주제가 될 것입니다.
이를 통해 특정 내용의 주제를 원하는 Topic 번호에 고정시킬 수 있습니다.
::
import tomotopy as tp
mdl = tp.LDAModel(k=20)
# add documents into <code>mdl</code>
# setting word prior
mdl.set_word_prior('church', [1.0 if k == 0 else 0.1 for k in range(20)])
자세한 내용은 example.py의 word_prior_example 함수를 참조하십시오.
예제 코드
tomotopy의 Python3 예제 코드는 https://github.com/bab2min/tomotopy/blob/main/examples/ 를 확인하시길 바랍니다.
예제 코드에서 사용했던 데이터 파일은 https://drive.google.com/file/d/18OpNijd4iwPyYZ2O7pQoPyeTAKEXa71J/view 에서 다운받을 수 있습니다.
라이센스
tomotopy는 MIT License 하에 배포됩니다.
역사
-
0.14.0 (2026-02-21)
- 신규 기능
- 이제 x86-64 아키텍처에 대한 AVX512 명령어 세트가 지원됩니다. 만약 CPU가 AVX512를 지원한다면 훨씬 더 빠른 성능을 즐길 수 있습니다.
- AVX 단독 모드는 제거되었습니다.
- 이제 Python3 Stable ABI를 지원하므로, Python 3.9 이상 버전에서는 동일한 tomotopy 패키지를 사용할 수 있습니다.
- 이제 tomotopy가 numpy 2.0 이상 버전을 지원합니다.
- 신규 기능
-
0.13.0 (2024-08-05)
- 신규 기능
- 토픽 모델 뷰어인
tomotopy.viewer.open_viewer()의 주요 기능이 완성되었습니다. LDAModel.get_hash()가 추가되었습니다. 모델의 128bit 해시를 구해줍니다.ngram_list인자가SimpleTokenizer에 추가되었습니다.
- 토픽 모델 뷰어인
- Bug fixes
Corpus.concat_ngrams호출 후에spans이 비일관적인 버그가 수정되었습니다.LDAModel.load()와LDAModel.save()의 병목을 최적화하여 속도를 10배 이상 개선했습니다.
- 신규 기능
-
0.12.7 (2023-12-19)
- 신규 기능
- 토픽 모델 뷰어인
tomotopy.viewer.open_viewer()가 추가되었습니다. Corpus.process()의 속도를 개선했습니다.
- 토픽 모델 뷰어인
- Bug fixes
Document.span이 이제 바이트 단위가 아니라 문자 단위로 범위를 제대로 반환합니다.
- 신규 기능
-
0.12.6 (2023-12-11)
- 신규 기능
LDAModel.train()과LDAModel.set_word_prior()에 몇가지 편의 기능을 추가했습니다.LDAModel.train가 이제 학습 진행상황을 모니터링할 수 있는callback,callback_interval,show_progres인자를 지원합니다.LDAModel.set_word_prior가 이제prior인자로Dict[int, float]타입도 받을 수 있게 되었습니다.
- 신규 기능
-
0.12.5 (2023-08-03)
- 신규 기능
- Linux ARM64 아키텍처에 대한 지원을 추가했습니다.
- 신규 기능
-
0.12.4 (2023-01-22)
- 신규 기능
- macOS ARM64 아키텍처에 대한 지원을 추가했습니다.
- 버그 수정
Document.get_sub_topic_dist()가 bad argument 예외를 발생시키는 문제를 해결했습니다.- 예외 발생이 종종 크래시를 발생시키는 문제를 해결했습니다.
- 신규 기능
-
0.12.3 (2022-07-19)
- 기능 개선
- 이제
LDAModel.add_doc()로 빈 문서를 삽입할 경우 예외를 발생시키는 대신 그냥 무시합니다. 새로 추가된 인자인ignore_empty_words를 False로 설정할 경우 이전처럼 예외를 발생시킵니다. - 유효하지 않은 토픽들을 모델에서 제거하는
HDPModel.purge_dead_topics()메소드가 추가되었습니다.
- 이제
- 버그 수정
SLDAModel에서nuSq값을 지정할 때 발생하는 문제를 해결했습니다. (by @jucendrero)Coherence가DTModel에 대해서 작동하지 않는 문제를 해결했습니다.train()호출 전에make_dic()을 호출할 때 종종 크래시가 발생하는 문제를 해결했습니다.- seed가 고정된 상태에서도
DMRModel,GDMRModel의 결과가 다르게 나오는 문제를 해결했습니다. DMRModel,GDMRModel의 파라미터 최적화 과정이 부정확하던 문제를 해결했습니다.LDAModel.copy()호출 시 종종 크래시가 발생하는 문제를 해결했습니다.
- 기능 개선
-
0.12.2 (2021-09-06)
min_cf > 0,min_df > 0나rm_top > 0로 설정된HDPModel에서convert_to_lda를 호출할때 크래시가 발생하는 문제를 해결했습니다.Document.get_topics()와Document.get_topic_dist()에from_pseudo_doc인자가 추가되었습니다. 이 인자는PTModel에 대해서만 유효하며, 이를 통해 토픽 분포를 구할 때 가상 문헌을 사용할지 여부를 선택할 수 있습니다.PTModel생성시 기본 인자값이 변경되었습니다.p를 생략시k * 10으로 설정됩니다.make_doc으로 생성한 문헌을infer없이 사용할 경우 발생하는 크래시를 해결하고 경고 메세지를 추가했습니다.- 내부 C++코드가 clang c++17 환경에서 컴파일에 실패하는 문제를 해결했습니다.
-
0.12.1 (2021-06-20)
LDAModel.set_word_prior()가 크래시를 발생시키던 문제를 해결했습니다.- 이제
LDAModel.perplexity와LDAModel.ll_per_word가 TermWeight가 ONE이 아닌 경우에도 정확한 값을 반환합니다. - 용어가중치가 적용된 빈도수를 반환하는
LDAModel.used_vocab_weighted_freq가 추가되었습니다. - 이제
LDAModel.summary()가 단어의 엔트로피뿐만 아니라, 용어 가중치가 적용된 단어의 엔트로피도 함께 보여줍니다.
-
0.12.0 (2021-04-26)
- 이제
DMRModel와GDMRModel가 다중 메타데이터를 지원합니다. (https://github.com/bab2min/tomotopy/blob/main/examples/dmr_multi_label.py 참조) GDMRModel의 성능이 개선되었습니다.- 깊은 복사를 수행하는
copy()메소드가 모든 토픽 모델 클래스에 추가되었습니다. min_cf,min_df등에 의해 학습에서 제외된 단어가 잘못된 토픽id값을 가지는 문제가 해결되었습니다. 이제 제외단 단어들은 토픽id로 모두-1값을 가집니다.- 이제
tomotopy에 의해 생성되는 예외 및 경고가 모두 Python 표준 타입을 따릅니다. - 컴파일러 요구사항이 C++14로 상향되었습니다.
- 이제
-
0.11.1 (2021-03-28)
- 비대칭 alpha와 관련된 치명적인 버그가 수정되었습니다. 이 버그로 인해 0.11.0 버전은 릴리즈에서 삭제되었습니다.
-
0.11.0 (2021-03-26) (삭제됨)
- 짧은 텍스트를 위한 토픽 모델인
PTModel가 추가되었습니다. LDAModel.infer()가 종종 segmentation fault를 발생시키는 문제가 해결되었습니다.- numpy API 버전 충돌이 해결되었습니다.
- 이제 비대칭 문헌-토픽 사전 분포가 지원됩니다.
- 토픽 모델 객체를 메모리 상의
bytes로 직렬화하는 기능이 지원됩니다. get_topic_dist(),get_topic_word_dist(),get_sub_topic_dist()에 결과의 정규화 여부를 조절하는normalize인자가 추가되었습니다.DMRModel.lambdas와DMRModel.alpha가 잘못된 값을 제공하던 문제가 해결되었습니다.GDMRModel에 범주형 메타데이터 지원이 추가되었습니다. (https://github.com/bab2min/tomotopy/blob/main/examples/gdmr_both_categorical_and_numerical.py 참조)- Python3.5 지원이 종료되었습니다.
- 짧은 텍스트를 위한 토픽 모델인
-
0.10.2 (2021-02-16)
LDAModel.train()가 큰 K값에 대해 실패하는 문제가 수정되었습니다.Corpus가uid값을 잃는 문제가 수정되었습니다.
-
0.10.1 (2021-02-14)
Corpus.extract_ngrams()에 빈 문헌을 입력시 발생하던 에러를 수정했습니다.LDAModel.infer()가 올바른 입력에도 예외를 발생시키던 문제를 수정했습니다.LDAModel.infer()가 잘못된Document.paths값을 생성하는 문제를 수정했습니다.LDAModel.train()에 새로운 파라미터freeze_topics가 추가되었습니다. 이를 통해 학습 시 신규 토픽 생성 여부를 조정할 수 있습니다.
-
0.10.0 (2020-12-19)
Corpus와LDAModel.docs간의 인터페이스가 통일되었습니다. 이제 동일한 방법으로 코퍼스 내의 문헌들에 접근할 수 있습니다.Corpus의 __getitem__이 개선되었습니다. int 타입 인덱싱뿐만 아니라 Iterable[int]나 slicing를 이용한 다중 인덱싱, uid를 이용한 인덱싱 등이 제공됩니다.Corpus.extract_ngrams()와Corpus.concat_ngrams()이 추가되었습니다. PMI를 이용해 코퍼스 내에서 자동으로 n-gram collocation을 발견해 한 단어로 합치는 기능을 수행합니다.LDAModel.add_corpus()가 추가되었고,LDAModel.infer()가 Raw 코퍼스를 입력으로 받을 수 있게 되었습니다.tomotopy.coherence모듈이 추가되었습니다. 생성된 토픽 모델의 coherence를 계산하는 기능을 담당합니다.FoRelevance에 window_size 파라미터가 추가되었습니다.HDPModel학습 시 종종 NaN이 발생하는 문제를 해결했습니다.- 이제 Python3.9를 지원합니다.
- py-cpuinfo에 대한 의존성이 제거되고, 모듈 로딩속도가 개선되었습니다.
-
0.9.1 (2020-08-08)
- 0.9.0 버전의 메모리 누수 문제가 해결되었습니다.
LDAModel.summary()가 잘못된 결과를 출력하는 문제가 해결되었습니다.
-
0.9.0 (2020-08-04)
- 모델의 상태를 알아보기 쉽게 출력해주는
LDAModel.summary()메소드가 추가되었습니다. - 난수 생성기를 EigenRand로 대체하여 생성 속도를 높이고 플랫폼 간의 결과 차이를 해소하였습니다.
- 이로 인해
seed가 동일해도 모델 학습 결과가 0.9.0 이전 버전과 달라질 수 있습니다. HDPModel에서 간헐적으로 발생하는 학습 오류를 수정했습니다.- 이제
DMRModel.alpha가 메타데이터별 토픽 분포의 사전 파라미터를 보여줍니다. DTModel.get_count_by_topics()가 2차원ndarray를 반환하도록 수정되었습니다.DTModel.alpha가DTModel.get_alpha()와 동일한 값을 반환하도록 수정되었습니다.GDMRModel의 document에 대해metadata값을 얻어올 수 없던 문제가 해결되었습니다.- 이제
HLDAModel.alpha가 문헌별 계층 분포의 사전 파라미터를 보여줍니다. LDAModel.global_step이 추가되었습니다.- 이제
LDAModel.get_count_by_topics()가 전역 토픽과 지역 토픽 모두의 단어 개수를 보여줍니다. PAModel.alpha,PAModel.subalpha,PAModel.get_count_by_super_topic()이 추가되었습니다.
- 모델의 상태를 알아보기 쉽게 출력해주는
-
0.8.2 (2020-07-14)
DTModel.num_timepoints와DTModel.num_docs_by_timepoint프로퍼티가 추가되었습니다.seed가 동일해도 플랫폼이 다르면 다른 결과를 내던 문제가 일부 해결되었습니다. 이로 인해 32bit 버전의 모델 학습 결과가 이전 버전과는 달라졌습니다.
-
0.8.1 (2020-06-08)
LDAModel.used_vocabs가 잘못된 값을 반환하는 버그가 수정되었습니다.- 이제
CTModel.prior_cov가[k, k]모양의 공분산 행렬을 반환합니다. - 이제 인자 없이
CTModel.get_correlations()를 호출하면[k, k]모양의 상관관계 행렬을 반환합니다.
-
0.8.0 (2020-06-06)
- NumPy가 tomotopy에 도입됨에 따라 많은 메소드와 프로퍼티들이
list가 아니라numpy.ndarray를 반환하도록 변경되었습니다. - Tomotopy에 새 의존관계
NumPy >= 1.10.0가 추가되었습니다.. LDAModel.infer()가 잘못된 추론을 하던 문제가 수정되었습니다.- HDP 모델을 LDA 모델로 변환하는 메소드가 추가되었습니다.
LDAModel.used_vocabs,LDAModel.used_vocab_freq,LDAModel.used_vocab_df등의 새로운 프로퍼티가 모델에 추가되었습니다.- 새로운 토픽 모델인 g-DMR(
GDMRModel)가 추가되었습니다. - macOS에서
FoRelevance를 생성할 때 발생하던 문제가 해결되었습니다. Corpus.add_doc()로raw가 없는 문헌을 생성한 뒤 토픽 모델에 입력할 시 발생하는 오류를 수정했습니다.
- NumPy가 tomotopy에 도입됨에 따라 많은 메소드와 프로퍼티들이
-
0.7.1 (2020-05-08)
HLDAModel용으로Document.paths가 새로 추가되었습니다.PMIExtractor사용시에 발생하던 메모리 문제가 해결되었습니다.- gcc 7에서 발생하던 컴파일 오류가 해결되었습니다.
-
0.7.0 (2020-04-18)
DTModel이 추가되었습니다.Corpus.save()가 제대로 작동하지 않는 버그가 수정되었습니다.Document.get_count_vector()가 추가되었습니다.- 리눅스용 바이너리가 manylinux2010 버전으로 변경되었고 이에 따른 최적화가 진행되었습니다.
-
0.6.2 (2020-03-28)
save와load에 관련된 치명적인 버그가 수정되었습니다. 해당 버그로 0.6.0 및 0.6.1 버전은 릴리즈에서 삭제되었습니다.
-
0.6.1 (2020-03-22) (삭제됨)
- 모듈 로딩과 관련된 버그가 수정되었습니다.
-
0.6.0 (2020-03-22) (삭제됨)
- 대량의 문헌을 관리하기 위한
Corpus가 추가되었습니다. - 어휘-주제 분포의 사전 확률을 조절할 수 있는
LDAModel.set_word_prior()메소드가 추가되었습니다. - 문헌 빈도를 기반으로 어휘를 필터링할 수 있도록 토픽 모델의 생성자에
min_df가 추가되었습니다. - 토픽 라벨링 관련 서브모듈인
tomotopy.label이 추가되었습니다. 현재는FoRelevance만 제공됩니다.
- 대량의 문헌을 관리하기 위한
-
0.5.2 (2020-03-01)
LLDAModel.add_doc()실행시 segmentation fault가 발생하는 문제를 해결했습니다.HDPModel에서infer실행시 종종 프로그램이 종료되는 문제를 해결했습니다.LDAModel.infer()에서 ps=tomotopy.ParallelScheme.PARTITION, together=True로 실행시 발생하는 오류를 해결했습니다.
-
0.5.1 (2020-01-11)
SLDAModel.make_doc()에서 결측값을 지원하지 않던 문제를 해결했습니다.SLDAModel이 이제 결측값을 지원합니다. 결측값을 가진 문헌은 토픽 모델링에는 참여하지만, 응답 변수 회귀에서는 제외됩니다.
-
0.5.0 (2019-12-30)
PAModel.infer()가 topic distribution과 sub-topic distribution을 동시에 반환합니다.Document에 get_sub_topics, get_sub_topic_dist 메소드가 추가되었습니다. (PAModel 전용)LDAModel.train()및LDAModel.infer()메소드에 parallel 옵션이 추가되었습니다. 이를 통해 학습 및 추론시 사용할 병렬화 알고리즘을 선택할 수 있습니다.ParallelScheme.PARTITION알고리즘이 추가되었습니다. 이 알고리즘은 작업자 수가 많거나 토픽의 개수나 어휘 크기가 클 때도 효율적으로 작동합니다.- 모델 생성시 min_cf < 2일때 rm_top 옵션이 적용되지 않는 문제를 수정하였습니다.
-
0.4.2 (2019-11-30)
-
0.4.1 (2019-11-27)
PLDAModel생성자의 버그를 수정했습니다.
-
0.4.0 (2019-11-18)
-
0.3.1 (2019-11-05)
min_cf혹은rm_top가 설정되었을 때get_topic_dist()의 반환값이 부정확한 문제를 수정하였습니다.MGLDAModel모델의 문헌의get_topic_dist()가 지역 토픽에 대한 분포도 함께 반환하도록 수정하였습니다..tw=ONE일때의 학습 속도가 개선되었습니다.
-
0.3.0 (2019-10-06)
LLDAModel토픽 모델이 새로 추가되었습니다.HDPModel을 학습할 때 프로그램이 종료되는 문제를 해결했습니다.HDPModel의 하이퍼파라미터 추정 기능이 추가되었습니다. 이 때문에 새 버전의HDPModel결과는 이전 버전과 다를 수 있습니다. 이전 버전처럼 하이퍼파라미터 추정을 끄려면,optim_interval을 0으로 설정하십시오.
-
0.2.0 (2019-08-18)
-
0.1.6 (2019-08-09)
- macOS와 clang에서 제대로 컴파일되지 않는 문제를 해결했습니다.
-
0.1.4 (2019-08-05)
add_doc메소드가 빈 리스트를 받았을 때 발생하는 문제를 해결하였습니다.PAModel.get_topic_words()가 하위토픽의 단어 분포를 제대로 반환하지 못하는 문제를 해결하였습니다.
-
0.1.3 (2019-05-19)
min_cf파라미터와 불용어 제거 기능이 모든 토픽 모델에 추가되었습니다.
-
0.1.0 (2019-05-12)
- tomotopy의 최초 버전
Sub-modules
tomotopy.coherence-
추가된 버전: 0.10.0 …
tomotopy.label-
tomotopy.label서브모듈은 자동 토픽 라벨링 기법을 제공합니다. 아래에 나온 코드처럼 간단한 작업을 통해 토픽 모델의 결과에 이름을 붙일 수 있습니다. 그 결과는 코드 하단에 첨부되어 있습니다 … tomotopy.models-
tomotopy.models서브모듈은 다양한 토픽 모델 클래스를 제공합니다. 모든 모델은 기본적인 Latent Dirichlet Allocation을 구현하는LDAModel을 기반으로 합니다. 파생 모델로는 DMR, GDMR, … tomotopy.utils-
tomotopy.utils서브모듈은 토픽 모델링에 유용한 여러 유틸리티를 제공합니다.Corpus클래스는 대량의 문헌을 관리할 수 있게 돕습니다.Corpus에 입력된 문헌들은 다양한 토픽 모델에 바로 입력될 수 있습니다. … tomotopy.viewer-
추가된 버전: 0.13.0 …
Functions
def load_model(path: str) ‑> LDAModel-
Expand source code
def load_model(path:str) -> 'LDAModel': ''' ..versionadded:: 0.13.0 Load any topic model from the given file path. Parameters ---------- path : str The file path to load the model from. Returns ------- model : LDAModel or its subclass ''' model_types = _get_all_model_types() for model_type in model_types: try: return model_type.load(path) except: pass raise ValueError(f'Cannot load model from {path}')추가된 버전: 0.13.0
주어진 파일 경로에서 토픽 모델을 로드합니다.
파라미터
path:str- 모델을 로드할 파일 경로.
Returns
model:LDAModel 또는 그 하위 클래스
def loads_model(data: bytes) ‑> LDAModel-
Expand source code
def loads_model(data:bytes) -> 'LDAModel': ''' ..versionadded:: 0.13.0 Load any topic model from the given bytes data. Parameters ---------- data : bytes The bytes data to load the model from. Returns ------- model : LDAModel or its subclass ''' model_types = _get_all_model_types() for model_type in model_types: try: return model_type.loads(data) except: pass raise ValueError(f'Cannot load model from the given data')추가된 버전: 0.13.0
주어진 바이트 데이터에서 토픽 모델을 로드합니다.
파라미터
data:bytes- 모델을 로드할 바이트 데이터.
Returns
model:LDAModel 또는 그 하위 클래스
Classes
class ParallelScheme (*args, **kwds)-
Expand source code
class ParallelScheme(IntEnum): """ This enumeration is for Parallelizing Scheme: There are three options for parallelizing and the basic one is DEFAULT. Not all models support all options. """ DEFAULT = 0 """tomotopy chooses the best available parallelism scheme for your model""" NONE = 1 """ Turn off multi-threading for Gibbs sampling at training or inference. Operations other than Gibbs sampling may use multithreading. """ COPY_MERGE = 2 """ Use Copy and Merge algorithm from AD-LDA. It consumes RAM in proportion to the number of workers. This has advantages when you have a small number of workers and a small number of topics and vocabulary sizes in the model. Prior to version 0.5, all models used this algorithm by default. > * Newman, D., Asuncion, A., Smyth, P., & Welling, M. (2009). Distributed algorithms for topic models. Journal of Machine Learning Research, 10(Aug), 1801-1828. """ PARTITION = 3 """ Use Partitioning algorithm from PCGS. It consumes only twice as much RAM as a single-threaded algorithm, regardless of the number of workers. This has advantages when you have a large number of workers or a large number of topics and vocabulary sizes in the model. > * Yan, F., Xu, N., & Qi, Y. (2009). Parallel inference for latent dirichlet allocation on graphics processing units. In Advances in neural information processing systems (pp. 2134-2142). """병렬화 기법을 선택하는 데에 사용되는 열거형입니다. 총 3가지 기법을 사용할 수 있으나, 모든 모델이 아래의 기법을 전부 지원하지는 않습니다.
부모 클래스
- enum.IntEnum
- builtins.int
- enum.ReprEnum
- enum.Enum
Class variables
var COPY_MERGE-
AD-LDA에서 제안된 복사 후 합치기 알고리즘을 사용합니다. 이는 작업자 수에 비례해 메모리를 소모합니다. 작업자 수가 적거나, 토픽 개수 혹은 어휘 집합의 크기가 작을 때 유리합니다. 0.5버전 이전까지는 모든 모델은 이 알고리즘을 기본으로 사용했습니다.
- Newman, D., Asuncion, A., Smyth, P., & Welling, M. (2009). Distributed algorithms for topic models. Journal of Machine Learning Research, 10(Aug), 1801-1828.
var DEFAULT-
tomotopy가 모델에 따라 적합한 병럴화 기법을 선택하도록 합니다. 이 값이 기본값입니다.
var NONE-
깁스 샘플링에 병렬화 기법을 사용하지 않습니다. 깁스 샘플링을 제외한 다른 연산들은 여전히 병렬로 처리될 수 있습니다.
var PARTITION-
PCGS에서 제안된 분할 샘플링 알고리즘을 사용합니다. 작업자 수에 관계없이 단일 스레드 알고리즘에 비해 2배의 메모리만 소모합니다. 작업자 수가 많거나, 토픽 개수 혹은 어휘 집합의 크기가 클 때 유리합니다.
- Yan, F., Xu, N., & Qi, Y. (2009). Parallel inference for latent dirichlet allocation on graphics processing units. In Advances in neural information processing systems (pp. 2134-2142).
class TermWeight (*args, **kwds)-
Expand source code
class TermWeight(IntEnum): """ This enumeration is for Term Weighting Scheme and it is based on the following paper: > * Wilson, A. T., & Chew, P. A. (2010, June). Term weighting schemes for latent dirichlet allocation. In human language technologies: The 2010 annual conference of the North American Chapter of the Association for Computational Linguistics (pp. 465-473). Association for Computational Linguistics. There are three options for term weighting and the basic one is ONE. The others can also be applied to all topic models in `tomotopy`. """ ONE = 0 """ Consider every term equal (default)""" IDF = 1 """ Use Inverse Document Frequency term weighting. Thus, a term occurring in almost every document has very low weighting and a term occurring in a few documents has high weighting. """ PMI = 2 """ Use Pointwise Mutual Information term weighting. """용어 가중치 기법을 선택하는 데에 사용되는 열거형입니다. 여기에 제시된 용어 가중치 기법들은 다음 논문을 바탕으로 하였습니다:
- Wilson, A. T., & Chew, P. A. (2010, June). Term weighting schemes for latent dirichlet allocation. In human language technologies: The 2010 annual conference of the North American Chapter of the Association for Computational Linguistics (pp. 465-473). Association for Computational Linguistics.
총 3가지 가중치 기법을 사용할 수 있으며 기본값은 ONE입니다. 기본값뿐만 아니라 다른 모든 기법들도
tomotopy의 모든 토픽 모델에 사용할 수 있습니다.부모 클래스
- enum.IntEnum
- builtins.int
- enum.ReprEnum
- enum.Enum
Class variables
var IDF-
역문헌빈도(IDF)를 가중치로 사용합니다.
따라서 모든 문헌에 거의 골고루 등장하는 용어의 경우 낮은 가중치를 가지게 되며, 소수의 특정 문헌에만 집중적으로 등장하는 용어의 경우 높은 가중치를 가지게 됩니다.
var ONE-
모든 용어를 동일하게 간주합니다. (기본값)
var PMI-
점별 상호정보량(PMI)을 가중치로 사용합니다.