Учебники

Python – токенизация

В Python токенизация в основном относится к разбиению большей части текста на более мелкие строки, слова или даже созданию слов для неанглийского языка. Различные функции токенизации встроены в сам модуль nltk и могут использоваться в программах, как показано ниже.

Линия токенизации

В приведенном ниже примере мы разделяем данный текст на разные строки с помощью функции sent_tokenize.

import nltk
sentence_data = "The First sentence is about Python. The Second: about Django. You can learn Python,Django and Data Ananlysis here. "
nltk_tokens = nltk.sent_tokenize(sentence_data)
print (nltk_tokens)

Когда мы запускаем вышеуказанную программу, мы получаем следующий вывод:

['The First sentence is about Python.', 'The Second: about Django.', 'You can learn Python,Django and Data Ananlysis here.']

Неанглийский токенизация

В приведенном ниже примере мы токенизируем текст на немецком языке.

import nltk

german_tokenizer = nltk.data.load('tokenizers/punkt/german.pickle')
german_tokens=german_tokenizer.tokenize('Wie geht es Ihnen?  Gut, danke.')
print(german_tokens)

Когда мы запускаем вышеуказанную программу, мы получаем следующий вывод:

['Wie geht es Ihnen?', 'Gut, danke.']

Слово Tokenzitaion

Мы токенизируем слова, используя функцию word_tokenize, доступную как часть nltk.

import nltk

word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
print (nltk_tokens)

Когда мы запускаем вышеуказанную программу, мы получаем следующий вывод: