Dataset Viewer
Auto-converted to Parquet Duplicate
text
stringlengths
6
792
latent
unknown
latent_dim
int32
32
32
num_frames
int32
14
1.13k
duration
float32
0.56
45
speaker_id
stringclasses
13 values
اسلام آباد عالمی بینک خیبرپختونخوا کے قبائلی اضلاع میں عسکریت پسندی سے پیدا ہونے والے بحران سے متاثرہ خاندانوں کی جلد بحالی، بچوں کی صحت کی بہتری، اور شہری مراکز ترسیل میں معاونت کے لیے فنڈز فراہم کرے گا۔
[ 203, 47, 53, 191, 215, 145, 234, 63, 155, 117, 92, 64, 130, 145, 62, 61, 55, 233, 218, 190, 36, 24, 60, 191, 180, 229, 38, 191, 164, 162, 195, 190, 152, 3, 146, 192, 243, 252, 151, 63, 216, 18, 22, 192, 47, 99, 135, 63, ...
32
359
14.36
urdu-munch-1:alloy
اس منصوبے کے لیے عالمی بینک ملٹی ڈونر ٹرسٹ کے تحت ایک کروڑ لاکھ ڈالر فراہم کرے گا جس کے تحت شہریوں کی سہولت کے مراکز قائم کیے جائیں گے جو پوری قبائلی بادی اور اس سے منسلک اضلاع کو خدمات فراہم کرے گا؟ ڈان اخبار کی رپورٹ کے مطابق یہ جولائی میں ایک کروڑ لاکھ ڈالر کی منظوری کے بعد سے منصوبے کی تیسری فنانسنگ ہوگی۔
[ 19, 127, 91, 191, 95, 212, 4, 64, 91, 59, 195, 63, 134, 146, 12, 64, 105, 176, 155, 62, 155, 190, 131, 63, 140, 119, 211, 62, 154, 109, 59, 189, 114, 115, 63, 192, 111, 207, 9, 64, 111, 104, 178, 189, 141, 164, 82, 63, 2...
32
558
22.32
urdu-munch-1:echo
یہ بھی پڑھیں کہ آئندہ سال تک پاکستان میں غربت میں اضافے کا امکان ہے۔
[ 99, 9, 103, 192, 74, 187, 214, 62, 220, 222, 118, 63, 1, 119, 24, 190, 34, 94, 112, 191, 32, 104, 57, 60, 70, 211, 189, 191, 254, 164, 228, 190, 237, 84, 57, 192, 0, 14, 159, 191, 143, 12, 192, 61, 100, 138, 245, 190, 25...
32
146
5.84
urdu-munch-1:fable
"ان اضلاع اور ان سے منسلک علاقوں میں شہریوں کی بنیادی سر(...TRUNCATED)
"iw9sv5P/Jz8eZlA/c3MFP/9rQz9n2dU+AB7Lv1lX4z/RETLAS8n/PoqZKr+l7qw92RuTP9fQNb8669S/c2m8PxCM2j4YtoE+3o/(...TRUNCATED)
32
565
22.6
urdu-munch-1:nova
"اسلام باد فیڈرل بورڈ ریونیو ایف بی نے دسمبر کی خری تاری(...TRUNCATED)
"EZQYwCCNhD8qWrA/YleyvozL4T3X2ze/5WOJvkmX0b6uxGXARvdaP95v074/YBo/jqOYPw+bl7xSorS/gLNoPykjFz/ReI2/uSQ(...TRUNCATED)
32
487
19.48
urdu-munch-1:shimmer
جبکہ پاکستان میں یہ تقریبا فیصد پر موجود ہے۔
"P7cjwEsvI72vK6M8FOsHv06KJz8KN5s8BO/7vjTUkz/68rC/QZGNPg1K9r1aQJY/BdPvPkB0Pb54tq+/Kjc9P7GctD4SyHu/rC+(...TRUNCATED)
32
94
3.76
urdu-munch-1:verse
"وزیر اعظم کے معاون خصوصی برائے ریونیو ڈاکٹر وقار مسعود(...TRUNCATED)
"wg5ewFpWpT/M2fa+HYkHPpD33D8K4vk9gMiUvQX/o76w5JfAvu+SPshngz8l4uw/xENQvAdhKj9VREg+oBHjPg59Ir5I5C2/u32(...TRUNCATED)
32
276
11.04
urdu-munch-1:ballad
"انہوں نے کہا کہ ریٹرن فائلنگ میں دن بدن اضافہ ہوتا جارہ(...TRUNCATED)
"5LNKwG4+ZD8tkQ6+CAsCvSRdU7+NJDg+Vw0/vTgHAD+GmWjAh9Ujv/+iL7/+4C+/gvQBv/PW5jxA2Do+yhVFP8hKgr68ghM/zIp(...TRUNCATED)
32
135
5.4
urdu-munch-1:ash
"یہ بھی پڑھیں: ٹیکس کے بغیر پاکستانی رقوم کی منتقلی کے ب(...TRUNCATED)
"g00KwO63vr97kMq+YIkQP/Amsz8Jgsw+Pj1Jv2GuVL7wnQjALozpviGVWz77pEE/GrwAP1D8aL/p5DzANid3vtTWdb4MG9e9lBv(...TRUNCATED)
32
332
13.28
urdu-munch-1:sage
"کہ وہ ان افراد کو انکم ٹیکس گوشوارے جمع کروانے کے لیے و(...TRUNCATED)
"YJg0P5hwMr3UfEQ+tw0XvnRbFr/8gdG+5ZgcvcOywj57fwXA3fBMP6Hkor9FwdA9UlyNPtaJgr/Jz02/4bc9P/AyIb9kJmW/GSc(...TRUNCATED)
32
236
9.44
urdu-munch-1:amuch
End of preview. Expand in Data Studio

🎙️ Urdu TTS Latent Dataset — munch-1-latent-NEW-parquet

Pre-computed DACVAE latent representations for 51,021 Urdu utterances, ready for TTS model training. No audio decoding required at training time — load the dataset, reshape the binary blob, and train.


Source

Field Value
Source audio Humair332/Urdu-munch-1
Codec Aratako/Semantic-DACVAE-Japanese-32dim
Codec sample rate 48,000 Hz
Encoder hop size 1,920 samples
Latent frame rate 25.0 Hz
Latent dim (D) 32
Duration formula num_frames × 1920 / 48000 = num_frames / 25.0

Dataset Stats

Stat Value
Total rows 51,021
Total file size 2.36 GB
Duration range 0.56 s — 45 s
Frames range 14 — 1,130
Speakers 13 voices
Language Urdu (اردو)

Speakers

alloy · echo · fable · nova · shimmer · verse · ballad · ash · sage · amuch · onyx · coral · openai


Schema

Column Type Description
text string Normalised Urdu transcript
latent binary Raw float32 bytes — shape (num_frames, 32), row-major
latent_dim int32 Always 32 — needed to reshape the binary blob
num_frames int32 Number of latent frames (T)
duration float32 Audio duration in seconds = num_frames / 25.0
speaker_id string Speaker label, format urdu-munch-1:<voice>

Why binary? Storing latents as raw float32 bytes instead of nested lists or JSON reduces file size by ~7× (384 MB → 54 MB per batch) with zero precision loss and O(1) reshape on load.


Load & Use

Basic load

import numpy as np
import torch
from datasets import load_dataset

ds = load_dataset("zuhri025/munch-1-latent-NEW-parquet", split="train")

row = ds[0]
print(row["text"])       # اسلام آباد عالمی بینک...
print(row["duration"])   # 14.36

# reshape binary -> (T, D) float32
latent = np.frombuffer(row["latent"], dtype=np.float32).reshape(
    row["num_frames"], row["latent_dim"]
)
print(latent.shape)      # (359, 32)

# as torch tensor
latent_t = torch.from_numpy(latent.copy())   # .copy() required — frombuffer is read-only

PyTorch DataLoader with padding

import numpy as np
import torch
from datasets import load_dataset
from torch.utils.data import DataLoader

ds = load_dataset("zuhri025/munch-1-latent-NEW-parquet", split="train")

def collate_fn(batch):
    latents = [
        torch.from_numpy(
            np.frombuffer(b["latent"], dtype=np.float32)
              .reshape(b["num_frames"], b["latent_dim"])
              .copy()
        )
        for b in batch
    ]
    max_T = max(t.shape[0] for t in latents)
    D     = latents[0].shape[1]                      # 32

    padded = torch.zeros(len(latents), max_T, D)
    mask   = torch.zeros(len(latents), max_T, dtype=torch.bool)
    for i, t in enumerate(latents):
        padded[i, :t.shape[0]] = t
        mask[i,   :t.shape[0]] = True

    return {
        "text":       [b["text"]       for b in batch],
        "speaker_id": [b["speaker_id"] for b in batch],
        "latent":     padded,                        # (B, T_max, 32)
        "mask":       mask,                          # (B, T_max)
        "duration":   torch.tensor([b["duration"] for b in batch]),
    }

loader = DataLoader(ds, batch_size=8, shuffle=True, collate_fn=collate_fn)

for batch in loader:
    print(batch["latent"].shape)   # torch.Size([8, T_max, 32])
    print(batch["mask"].shape)     # torch.Size([8, T_max])
    break

Filter by speaker or duration

# single speaker
ds_alloy = ds.filter(lambda x: x["speaker_id"] == "urdu-munch-1:alloy")

# utterances under 10 seconds
ds_short = ds.filter(lambda x: x["duration"] < 10.0)

# utterances between 3 and 20 seconds (typical TTS training range)
ds_clean = ds.filter(lambda x: 3.0 <= x["duration"] <= 20.0)

Decode latent back to audio

import torch
import soundfile as sf
from huggingface_hub import hf_hub_download
import sys

# Load codec
try:
    from dacvae import DACVAE
except ImportError:
    # clone https://github.com/Aratako/Irodori-TTS and add dacvae/ to path
    raise

weights = hf_hub_download("Aratako/Semantic-DACVAE-Japanese-32dim", "weights.pth")
model = DACVAE.load(weights).eval()

row = ds[0]
latent = torch.from_numpy(
    np.frombuffer(row["latent"], dtype=np.float32)
      .reshape(row["num_frames"], row["latent_dim"])
      .copy()
).unsqueeze(0)                    # (1, T, 32)

with torch.inference_mode():
    audio = model.decode(latent.transpose(1, 2))   # (1, 1, samples)

audio_np = audio.squeeze().numpy()
sf.write("output.wav", audio_np, 48000)

Pipeline

Humair332/Urdu-munch-1          ← raw audio (22,050 Hz) + Urdu transcripts
        ↓  precompute_urdu_latents.py
zuhri025/munch-1-latent-NEW     ← JSONL with latents as float32 lists
        ↓  jsonl_to_parquet.py
zuhri025/munch-1-latent-NEW-parquet  ← this dataset (binary parquet, 25 Hz)

Citation

If you use this dataset, please also credit the source audio dataset and codec:

  • Source audio: Humair332/Urdu-munch-1
  • Codec: Aratako/Semantic-DACVAE-Japanese-32dimIrodori-TTS
Downloads last month
264