Datasets:
The dataset viewer is not available for this subset.
Exception: SplitsNotFoundError
Message: The split names could not be parsed from the dataset config.
Traceback: Traceback (most recent call last):
File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 236, in _generate_tables
pa_table = paj.read_json(
^^^^^^^^^^^^^^
File "pyarrow/_json.pyx", line 342, in pyarrow._json.read_json
File "pyarrow/error.pxi", line 155, in pyarrow.lib.pyarrow_internal_check_status
File "pyarrow/error.pxi", line 92, in pyarrow.lib.check_status
pyarrow.lib.ArrowInvalid: JSON parse error: Column() changed from object to string in row 0
During handling of the above exception, another exception occurred:
Traceback (most recent call last):
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 286, in get_dataset_config_info
for split_generator in builder._split_generators(
^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 93, in _split_generators
pa_table = next(iter(self._generate_tables(**splits[0].gen_kwargs, allow_full_read=False)))[1]
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 250, in _generate_tables
batch = json_encode_fields_in_json_lines(original_batch, json_field_paths)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/utils/json.py", line 90, in json_encode_fields_in_json_lines
examples = [ujson_loads(line) for line in original_batch.splitlines()]
^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/utils/json.py", line 20, in ujson_loads
return pd.io.json.ujson_loads(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
ValueError: Expected object or value
The above exception was the direct cause of the following exception:
Traceback (most recent call last):
File "/src/services/worker/src/worker/job_runners/config/split_names.py", line 65, in compute_split_names_from_streaming_response
for split in get_dataset_split_names(
^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 340, in get_dataset_split_names
info = get_dataset_config_info(
^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 291, in get_dataset_config_info
raise SplitsNotFoundError("The split names could not be parsed from the dataset config.") from err
datasets.inspect.SplitsNotFoundError: The split names could not be parsed from the dataset config.Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
🇧🇷 Brasil — Textos Literários Brasileiros
Dataset de textos em português brasileiro para pré-treinamento e fine-tuning de modelos de linguagem. O corpus é composto por obras literárias clássicas brasileiras em domínio público, com foco na riqueza linguística e cultural do Brasil.
📚 Conteúdo atual
| Obra | Autor | Ano | Palavras (aprox.) |
|---|---|---|---|
| Obra A | Autor Brasileiro 1 | 1880 | ~80.000 |
| Obra B | Autor Brasileiro 2 | 1902 | ~65.000 |
| Obra C | Autor Brasileiro 3 | 1925 | ~90.000 |
📌 Mais obras serão adicionadas progressivamente.
📂 Estrutura dos arquivos
Brasil/
├── data/
│ ├── obra_a_pretrain_hf.jsonl
│ ├── obra_b_pretrain_hf.jsonl
│ └── obra_c_pretrain_hf.jsonl
├── metadata.json
└── README.md
Cada linha do .jsonl segue o formato padrão para treinamento de linguagem:
{"text": "Era uma vez, nas margens do rio grande, um homem que carregava consigo o peso do sertão..."}
🚀 Como usar
from datasets import load_dataset
ds = load_dataset("jinilson/Brasil")
print(ds["train"][0])
Para treinamento causal (GPT-style):
from datasets import load_dataset
from transformers import AutoTokenizer
ds = load_dataset("jinilson/Brasil")
tokenizer = AutoTokenizer.from_pretrained("seu-modelo-base")
def tokenize(example):
return tokenizer(example["text"], truncation=True, max_length=512)
tokenized = ds.map(tokenize, batched=True)
🎯 Casos de uso
- ✅ Pré-treinamento de modelos de linguagem em português
- ✅ Continual pre-training — continuar treinando modelos já existentes com dados PT-BR
- ✅ Fine-tuning para geração de texto literário em português
- ✅ Embeddings e modelos de representação semântica
- ✅ Benchmarking de modelos em português clássico e moderno
📊 Estatísticas
| Métrica | Valor |
|---|---|
| Total de obras | 3 |
| Total de palavras | ~235.000 |
| Idioma | Português Brasileiro (pt-BR) |
| Período histórico | Século XIX – XX |
| Formato | JSONL (uma entrada por linha) |
🔤 Características linguísticas
- Português brasileiro em diferentes registros históricos
- Vocabulário rico e variado da literatura clássica
- Obras em domínio público — sem restrições de uso
- Texto limpo, sem ruído de OCR
📜 Licença e direitos
Todas as obras incluídas neste dataset são de domínio público no Brasil e internacionalmente. O dataset em si é disponibilizado sob licença Apache 2.0.
Fonte dos textos: Project Gutenberg
🤝 Contribuições
Quer adicionar mais obras brasileiras? Abra uma issue ou pull request!
Sugestões de obras para incluir:
- Dom Casmurro — Machado de Assis
- Memórias Póstumas de Brás Cubas — Machado de Assis
- O Cortiço — Aluísio Azevedo
- Iracema — José de Alencar
- Os Sertões — Euclides da Cunha
✍️ Citação
@dataset{jinilson_brasil_2026,
author = {jinilson},
title = {Brasil — Textos Literários Brasileiros},
year = {2026},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/jinilson/Brasil}
}
- Downloads last month
- 31