все параметры
bookworm  ] [  trixie  ] [  forky  ] [  sid  ]
[ Источник: r-cran-tokenizers  ]

Пакет: r-cran-tokenizers (0.3.0-1 и другие)

Ссылки для r-cran-tokenizers

Screenshot

Ресурсы Debian:

Исходный код r-cran-tokenizers:

Сопровождающие:

Внешние ресурсы:

Подобные пакеты:

GNU R fast, consistent tokenization of natural language text

Convert natural language text into tokens. Includes tokenizers for shingled n-grams, skip n-grams, words, word stems, sentences, paragraphs, characters, shingled characters, lines, tweets, Penn Treebank, regular expressions, as well as functions for counting characters, words, and sentences, and a function for splitting longer texts into separate documents, each with the same number of words. The tokenizers have a consistent interface, and the package is built on the 'stringi' and 'Rcpp' packages for fast yet correct tokenization in 'UTF-8'.

Другие пакеты, относящиеся к r-cran-tokenizers

  • зависимости
  • рекомендации
  • предложения
  • enhances

Загрузка r-cran-tokenizers

Загрузить для всех доступных архитектур
Архитектура Версия Размер пакета В установленном виде Файлы
amd64 0.3.0-1 641,6 Кб845,0 Кб [список файлов]
arm64 0.3.0-1+b1 637,5 Кб861,0 Кб [список файлов]
armhf 0.3.0-1 637,6 Кб860,0 Кб [список файлов]
i386 0.3.0-1 642,9 Кб847,0 Кб [список файлов]
ppc64el 0.3.0-1 642,1 Кб925,0 Кб [список файлов]
riscv64 0.3.0-1+b1 640,2 Кб821,0 Кб [список файлов]
s390x 0.3.0-1 637,7 Кб849,0 Кб [список файлов]