Datasets:
text stringlengths 6 792 | latent unknown | latent_dim int32 32 32 | num_frames int32 14 1.13k | duration float32 0.56 45 | speaker_id stringclasses 13
values |
|---|---|---|---|---|---|
اسلام آباد عالمی بینک خیبرپختونخوا کے قبائلی اضلاع میں عسکریت پسندی سے پیدا ہونے والے بحران سے متاثرہ خاندانوں کی جلد بحالی، بچوں کی صحت کی بہتری، اور شہری مراکز ترسیل میں معاونت کے لیے فنڈز فراہم کرے گا۔ | [
203,
47,
53,
191,
215,
145,
234,
63,
155,
117,
92,
64,
130,
145,
62,
61,
55,
233,
218,
190,
36,
24,
60,
191,
180,
229,
38,
191,
164,
162,
195,
190,
152,
3,
146,
192,
243,
252,
151,
63,
216,
18,
22,
192,
47,
99,
135,
63,
... | 32 | 359 | 14.36 | urdu-munch-1:alloy |
اس منصوبے کے لیے عالمی بینک ملٹی ڈونر ٹرسٹ کے تحت ایک کروڑ لاکھ ڈالر فراہم کرے گا جس کے تحت شہریوں کی سہولت کے مراکز قائم کیے جائیں گے جو پوری قبائلی بادی اور اس سے منسلک اضلاع کو خدمات فراہم کرے گا؟ ڈان اخبار کی رپورٹ کے مطابق یہ جولائی میں ایک کروڑ لاکھ ڈالر کی منظوری کے بعد سے منصوبے کی تیسری فنانسنگ ہوگی۔ | [
19,
127,
91,
191,
95,
212,
4,
64,
91,
59,
195,
63,
134,
146,
12,
64,
105,
176,
155,
62,
155,
190,
131,
63,
140,
119,
211,
62,
154,
109,
59,
189,
114,
115,
63,
192,
111,
207,
9,
64,
111,
104,
178,
189,
141,
164,
82,
63,
2... | 32 | 558 | 22.32 | urdu-munch-1:echo |
یہ بھی پڑھیں کہ آئندہ سال تک پاکستان میں غربت میں اضافے کا امکان ہے۔ | [
99,
9,
103,
192,
74,
187,
214,
62,
220,
222,
118,
63,
1,
119,
24,
190,
34,
94,
112,
191,
32,
104,
57,
60,
70,
211,
189,
191,
254,
164,
228,
190,
237,
84,
57,
192,
0,
14,
159,
191,
143,
12,
192,
61,
100,
138,
245,
190,
25... | 32 | 146 | 5.84 | urdu-munch-1:fable |
"ان اضلاع اور ان سے منسلک علاقوں میں شہریوں کی بنیادی سر(...TRUNCATED) | "iw9sv5P/Jz8eZlA/c3MFP/9rQz9n2dU+AB7Lv1lX4z/RETLAS8n/PoqZKr+l7qw92RuTP9fQNb8669S/c2m8PxCM2j4YtoE+3o/(...TRUNCATED) | 32 | 565 | 22.6 | urdu-munch-1:nova |
"اسلام باد فیڈرل بورڈ ریونیو ایف بی نے دسمبر کی خری تاری(...TRUNCATED) | "EZQYwCCNhD8qWrA/YleyvozL4T3X2ze/5WOJvkmX0b6uxGXARvdaP95v074/YBo/jqOYPw+bl7xSorS/gLNoPykjFz/ReI2/uSQ(...TRUNCATED) | 32 | 487 | 19.48 | urdu-munch-1:shimmer |
جبکہ پاکستان میں یہ تقریبا فیصد پر موجود ہے۔ | "P7cjwEsvI72vK6M8FOsHv06KJz8KN5s8BO/7vjTUkz/68rC/QZGNPg1K9r1aQJY/BdPvPkB0Pb54tq+/Kjc9P7GctD4SyHu/rC+(...TRUNCATED) | 32 | 94 | 3.76 | urdu-munch-1:verse |
"وزیر اعظم کے معاون خصوصی برائے ریونیو ڈاکٹر وقار مسعود(...TRUNCATED) | "wg5ewFpWpT/M2fa+HYkHPpD33D8K4vk9gMiUvQX/o76w5JfAvu+SPshngz8l4uw/xENQvAdhKj9VREg+oBHjPg59Ir5I5C2/u32(...TRUNCATED) | 32 | 276 | 11.04 | urdu-munch-1:ballad |
"انہوں نے کہا کہ ریٹرن فائلنگ میں دن بدن اضافہ ہوتا جارہ(...TRUNCATED) | "5LNKwG4+ZD8tkQ6+CAsCvSRdU7+NJDg+Vw0/vTgHAD+GmWjAh9Ujv/+iL7/+4C+/gvQBv/PW5jxA2Do+yhVFP8hKgr68ghM/zIp(...TRUNCATED) | 32 | 135 | 5.4 | urdu-munch-1:ash |
"یہ بھی پڑھیں: ٹیکس کے بغیر پاکستانی رقوم کی منتقلی کے ب(...TRUNCATED) | "g00KwO63vr97kMq+YIkQP/Amsz8Jgsw+Pj1Jv2GuVL7wnQjALozpviGVWz77pEE/GrwAP1D8aL/p5DzANid3vtTWdb4MG9e9lBv(...TRUNCATED) | 32 | 332 | 13.28 | urdu-munch-1:sage |
"کہ وہ ان افراد کو انکم ٹیکس گوشوارے جمع کروانے کے لیے و(...TRUNCATED) | "YJg0P5hwMr3UfEQ+tw0XvnRbFr/8gdG+5ZgcvcOywj57fwXA3fBMP6Hkor9FwdA9UlyNPtaJgr/Jz02/4bc9P/AyIb9kJmW/GSc(...TRUNCATED) | 32 | 236 | 9.44 | urdu-munch-1:amuch |
End of preview. Expand in Data Studio
🎙️ Urdu TTS Latent Dataset — munch-1-latent-NEW-parquet
Pre-computed DACVAE latent representations for 51,021 Urdu utterances, ready for TTS model training. No audio decoding required at training time — load the dataset, reshape the binary blob, and train.
Source
| Field | Value |
|---|---|
| Source audio | Humair332/Urdu-munch-1 |
| Codec | Aratako/Semantic-DACVAE-Japanese-32dim |
| Codec sample rate | 48,000 Hz |
| Encoder hop size | 1,920 samples |
| Latent frame rate | 25.0 Hz |
| Latent dim (D) | 32 |
| Duration formula | num_frames × 1920 / 48000 = num_frames / 25.0 |
Dataset Stats
| Stat | Value |
|---|---|
| Total rows | 51,021 |
| Total file size | 2.36 GB |
| Duration range | 0.56 s — 45 s |
| Frames range | 14 — 1,130 |
| Speakers | 13 voices |
| Language | Urdu (اردو) |
Speakers
alloy · echo · fable · nova · shimmer · verse · ballad · ash · sage · amuch · onyx · coral · openai
Schema
| Column | Type | Description |
|---|---|---|
text |
string |
Normalised Urdu transcript |
latent |
binary |
Raw float32 bytes — shape (num_frames, 32), row-major |
latent_dim |
int32 |
Always 32 — needed to reshape the binary blob |
num_frames |
int32 |
Number of latent frames (T) |
duration |
float32 |
Audio duration in seconds = num_frames / 25.0 |
speaker_id |
string |
Speaker label, format urdu-munch-1:<voice> |
Why binary? Storing latents as raw
float32bytes instead of nested lists or JSON reduces file size by ~7× (384 MB → 54 MB per batch) with zero precision loss and O(1) reshape on load.
Load & Use
Basic load
import numpy as np
import torch
from datasets import load_dataset
ds = load_dataset("zuhri025/munch-1-latent-NEW-parquet", split="train")
row = ds[0]
print(row["text"]) # اسلام آباد عالمی بینک...
print(row["duration"]) # 14.36
# reshape binary -> (T, D) float32
latent = np.frombuffer(row["latent"], dtype=np.float32).reshape(
row["num_frames"], row["latent_dim"]
)
print(latent.shape) # (359, 32)
# as torch tensor
latent_t = torch.from_numpy(latent.copy()) # .copy() required — frombuffer is read-only
PyTorch DataLoader with padding
import numpy as np
import torch
from datasets import load_dataset
from torch.utils.data import DataLoader
ds = load_dataset("zuhri025/munch-1-latent-NEW-parquet", split="train")
def collate_fn(batch):
latents = [
torch.from_numpy(
np.frombuffer(b["latent"], dtype=np.float32)
.reshape(b["num_frames"], b["latent_dim"])
.copy()
)
for b in batch
]
max_T = max(t.shape[0] for t in latents)
D = latents[0].shape[1] # 32
padded = torch.zeros(len(latents), max_T, D)
mask = torch.zeros(len(latents), max_T, dtype=torch.bool)
for i, t in enumerate(latents):
padded[i, :t.shape[0]] = t
mask[i, :t.shape[0]] = True
return {
"text": [b["text"] for b in batch],
"speaker_id": [b["speaker_id"] for b in batch],
"latent": padded, # (B, T_max, 32)
"mask": mask, # (B, T_max)
"duration": torch.tensor([b["duration"] for b in batch]),
}
loader = DataLoader(ds, batch_size=8, shuffle=True, collate_fn=collate_fn)
for batch in loader:
print(batch["latent"].shape) # torch.Size([8, T_max, 32])
print(batch["mask"].shape) # torch.Size([8, T_max])
break
Filter by speaker or duration
# single speaker
ds_alloy = ds.filter(lambda x: x["speaker_id"] == "urdu-munch-1:alloy")
# utterances under 10 seconds
ds_short = ds.filter(lambda x: x["duration"] < 10.0)
# utterances between 3 and 20 seconds (typical TTS training range)
ds_clean = ds.filter(lambda x: 3.0 <= x["duration"] <= 20.0)
Decode latent back to audio
import torch
import soundfile as sf
from huggingface_hub import hf_hub_download
import sys
# Load codec
try:
from dacvae import DACVAE
except ImportError:
# clone https://github.com/Aratako/Irodori-TTS and add dacvae/ to path
raise
weights = hf_hub_download("Aratako/Semantic-DACVAE-Japanese-32dim", "weights.pth")
model = DACVAE.load(weights).eval()
row = ds[0]
latent = torch.from_numpy(
np.frombuffer(row["latent"], dtype=np.float32)
.reshape(row["num_frames"], row["latent_dim"])
.copy()
).unsqueeze(0) # (1, T, 32)
with torch.inference_mode():
audio = model.decode(latent.transpose(1, 2)) # (1, 1, samples)
audio_np = audio.squeeze().numpy()
sf.write("output.wav", audio_np, 48000)
Pipeline
Humair332/Urdu-munch-1 ← raw audio (22,050 Hz) + Urdu transcripts
↓ precompute_urdu_latents.py
zuhri025/munch-1-latent-NEW ← JSONL with latents as float32 lists
↓ jsonl_to_parquet.py
zuhri025/munch-1-latent-NEW-parquet ← this dataset (binary parquet, 25 Hz)
Citation
If you use this dataset, please also credit the source audio dataset and codec:
- Source audio:
Humair332/Urdu-munch-1 - Codec:
Aratako/Semantic-DACVAE-Japanese-32dim— Irodori-TTS
- Downloads last month
- 264