Я новый Спарк 2. я попытался Спарк tfidf напримерКак Спарк HashingTF работает
sentenceData = spark.createDataFrame([
(0.0, "Hi I heard about Spark")
], ["label", "sentence"])
tokenizer = Tokenizer(inputCol="sentence", outputCol="words")
wordsData = tokenizer.transform(sentenceData)
hashingTF = HashingTF(inputCol="words", outputCol="rawFeatures", numFeatures=32)
featurizedData = hashingTF.transform(wordsData)
for each in featurizedData.collect():
print(each)
Он выводит
Row(label=0.0, sentence=u'Hi I heard about Spark', words=[u'hi', u'i', u'heard', u'about', u'spark'], rawFeatures=SparseVector(32, {1: 3.0, 13: 1.0, 24: 1.0}))
Я ожидал, что в rawFeatures
я буду получать долгосрочные частоты как {0:0.2, 1:0.2, 2:0.2, 3:0.2, 4:0.2}
. Поскольку частота терминов является:
tf(w) = (Number of times the word appears in a document)/(Total number of words in the document)
В нашем случае это: tf(w) = 1/5 = 0.2
для каждого слова, потому что каждое слово apears один раз в документе. Если мы представляем, что выходной словарь rawFeatures
содержит индекс слова как ключ, а количество слов в документе как значение, то почему ключ 1
равен 3.0
? Нет слова, которое появляется в документе 3 раза. Это меня смущает. Что мне не хватает?