انتخاب زبان

MultiActor-Audiobook: تولید کتاب‌های صوتی با چندین گوینده به صورت Zero-Shot

روشی zero-shot برای تولید کتاب‌های صوتی بی‌ان با استفاده از پرسوناهای چندوجهی گوینده و دستورات مبتنی بر LLM، حذف نیاز به آموزش پرهزینه و حاشیه‌نویسی دستی
audio-novel.com | PDF Size: 1.3 MB
امتیاز: 4.5/5
امتیاز شما
شما قبلاً به این سند امتیاز داده اید
جلد سند PDF - MultiActor-Audiobook: تولید کتاب‌های صوتی با چندین گوینده به صورت Zero-Shot

فهرست مطالب

1. مقدمه

تولید کتاب صوتی با چالش‌هایی در تولید آهنگ کلام بی‌ان و آگاه از متن و حفظ ثبات گوینده بدون نیاز به جمع‌آوری پرهزینه داده یا حاشیه‌نویسی دستی مواجه است. روش‌های سنتی به مجموعه‌داده‌های گسترده یا مداخله انسانی متکی هستند که مقیاس‌پذیری و کارایی را محدود می‌کنند. MultiActor-Audiobook این مسائل را از طریق یک رویکرد zero-shot که ایجاد پرسونای گوینده و تولید پویای دستورات اسکریپت را خودکار می‌کند، حل می‌نماید.

2. روش‌شناسی

2.1 تولید پرسونای چندوجهی گوینده

این فرآیند، پرسوناهای منحصربه‌فرد گوینده را با ترکیب توصیف‌های متنی، تصاویر چهره تولیدشده توسط هوش مصنوعی و نمونه‌های صدا تولید می‌کند. یک LLM موجودیت‌های گوینده را شناسایی و ویژگی‌های توصیفی را استخراج می‌کند. یک مدل متن-به-تصویر (مانند DALL·E) بازنمایی‌های بصری ایجاد می‌کند و یک سیستم از پیش آموزش‌دیده چهره-به-صدا (مانند [۱۴]) نمونه‌های صدا تولید می‌کند. جاسازی پرسونا $P_c$ برای شخصیت $c$ به این صورت به دست می‌آید: $P_c = \text{Voice}(\text{Image}(\text{LLM}(\text{Text}_c)))$.

2.2 تولید دستورات اسکریپت مبتنی بر LLM

GPT-4o دستورات پویا برای هر جمله، شامل سرنخ‌های احساس، لحن و زیروبمی تولید می‌کند. ورودی شامل جمله هدف، متن اطراف و پرسوناهای شخصیت است. دستور $I_s$ برای جمله $s$ به این صورت است: $I_s = \text{GPT-4o}(s, \text{context}, P_c)$.

3. جزئیات فنی

3.1 فرمول‌بندی ریاضی

فرآیند کلی تولید کتاب صوتی به این صورت صوری شده است: $A = \text{TTS}(\text{concat}(s, I_s), P_c)$، که در آن TTS یک سیستم متن-به-صدا مبتنی بر پرامپت است، $s$ جمله است، $I_s$ دستور است و $P_c$ پرسونای گوینده است. تابع زیان ثبات پرسونا $L_c$ پایداری صدا را تضمین می‌کند: $L_c = \sum_{t=1}^T \| V_c(t) - V_c(t-1) \|^2$، که در آن $V_c(t)$ جاسازی صدا در زمان $t$ است.

3.2 پیاده‌سازی کد

# شبه‌کد برای MultiActor-Audiobook

def generate_audiobook(novel_text):
    speakers = llm_identify_speakers(novel_text)
    personas = {}
    for speaker in speakers:
        text_desc = llm_extract_features(speaker, novel_text)
        face_image = text2image(text_desc)
        voice_sample = face_to_voice(face_image, text_desc)
        personas[speaker] = voice_sample
    
    sentences = split_into_sentences(novel_text)
    audiobook = []
    for i, sentence in enumerate(sentences):
        context = get_context(sentences, i)
        instruction = gpt4o_generate(sentence, context, personas)
        audio = tts_synthesize(sentence, instruction, personas[speaker])
        audiobook.append(audio)
    return concatenate(audiobook)

4. آزمایش‌ها و نتایج

4.1 ارزیابی انسانی

ارزیابان انسانی، MultiActor-Audiobook را در مقایسه با سیستم‌های تجاری از نظر بیانی بودن، ثبات گوینده و طبیعی بودن امتیازدهی کردند. در مقیاس ۵ امتیازی، این سیستم به ترتیب امتیاز ۴.۲ برای بیانی بودن و ۴.۰ برای ثبات کسب کرد که از سیستم‌های پایه بهتر عمل کرد (مثلاً ۳.۵ برای بیانی بودن در NarrativePlay).

4.2 ارزیابی MLLM

مدل‌های بزرگ زبان چندوجهی (MLLM) کیفیت صدا را ارزیابی کردند و به MultiActor-Audiobook امتیاز ۱۰۰/۸۵ برای تناسب احساسی دادند، در مقایسه با ۱۰۰/۷۰ برای سیستم‌های سنتی TTS. مطالعات حذفی تأیید کرد که هر دو مؤلفه MSP و LSI برای عملکرد حیاتی هستند.

5. کاربردهای آینده

کاربردهای بالقوه شامل داستان‌گویی تعاملی، محتوای آموزشی و دستیاران مجازی است. کار آینده می‌تواند سازگاری بلادرنگ، پشتیبانی از زبان‌های بیشتر و مدل‌سازی احساسی پیشرفته با استفاده از تکنیک‌هایی مانند CycleGAN برای انتقال سبک [۲۳] را ادغام کند.

6. مراجع

  1. Y. Ren et al., "FastSpeech 2: Fast and High-Quality End-to-End Text to Speech," in Proc. ICLR, 2021.
  2. OpenAI, "GPT-4 Technical Report," 2023.
  3. Zhu et al., "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks," in Proc. ICCV, 2017.

7. تحلیل تخصصی

نکته کلیدی: MultiActor-Audiobook فقط یک مقاله دیگر TTS نیست—یک دور زدن استراتژیک حول مسئله کمبود داده است که سال‌ها سنتز گفتار بی‌ان را آزار داده است. با بهره‌گیری از پرسوناهای چندوجهی و دستورات مبتنی بر LLM، آن‌ها به‌طور مؤثر «درک» متن روایی را به مدل‌های همه‌منظوره برون‌سپاری کرده‌اند و نیاز به داده آموزشی خاص دامنه را دور زده‌اند. این یک نمونه کلاسیک از پارادایم «مدل پایه به عنوان استخراج‌کننده ویژگی» است که در پژوهش هوش مصنوعی به طور فزاینده‌ای مسلط می‌شود، مشابه نحوه‌ای که CycleGAN [۲۳] با استفاده هوشمندانه از توابع زیان تناوب-ثبات به جای داده جفت‌شده، ترجمه تصویر جفت‌نشده را متحول کرد.

زنجیره منطقی: نوآوری اصلی در اینجا یک زنجیره علیت زیبا و ساده است: توصیف‌های متنی → پرسوناهای بصری → جاسازی‌های صدا → شخصیت‌پردازی ثابت. این چیزی را ایجاد می‌کند که من آن را «آهنگ کلام emergent» می‌نامم—سیستم به‌طور صریح آهنگ کلام را به معنای سنتی پردازش سیگنال مدل نمی‌کند، بلکه آن را از طریق ترکیب ثبات پرسونا و دستورات متنی القا می‌کند. فرمول‌بندی ریاضی $A = \text{TTS}(\text{concat}(s, I_s), P_c)$ به زیبایی نحوه تجزیه مسئله به زیروظایف قابل مدیریت را capture می‌کند، بسیار شبیه به نحوه‌ای که رندرینگ عصبی مدرن، هندسه را از ظاهر جدا می‌کند.

نقاط قوت و ضعف: قابلیت zero-shot واقعاً впеفت‌انگیز است—توانایی تولید صداهای مشخصه تنها از توصیف‌های متنی می‌تواند تولید کتاب صوتی را دموکراتیزه کند. استفاده از سیستم‌های چهره-به-صدا به عنوان پراکسی برای جاسازی شخصیت به‌ویژه هوشمندانه است و بر علوم شناختی estable شده درباره مطابقت صدا-چهره بنا شده است. با این حال، فیل در اتاق، هزینه محاسباتی است: اجرای GPT-4o برای هر جمله برای محتوای بلند ارزان نیست، و وابستگی به چندین API انحصاری (OpenAI برای دستورات، به طور بالقوه سیستم‌های TTS تجاری) این را برای پژوهش آزاد کمتر در دسترس می‌کند. مقاله همچنین به خوبی نحوه عملکرد نگاشت چهره-به-صدا برای شخصیت‌های غیرانسانی یا فانتزی را پوشش نمی‌دهد—آیا واقعاً می‌تواند صداهای اژدهای متقاعدکننده از تصاویر اژدها تولید کند؟

بینش عملی: برای متخصصان، این نشان می‌دهد که آینده TTS بی‌ان در ترکیب‌پذیری به جای مدل‌های یکپارچه نهفته است. استراتژی برنده، توسعه سیستم‌های جاسازی پرسونای robust خواهد بود که بتوانند با چندین موتور TTS backbone کار کنند. پژوهشگران باید بر کارآمدتر کردن تولید دستورات—شاید از طریق مدل‌های تقطیرشده یا رویکردهای مبتنی بر حافظه پنهان—تمرکز کنند. خالقان محتوا باید برای آینده‌ای نزدیک آماده شوند که در آن تولید صداهای شخصیت با کیفیت حرفه‌ای چیزی بیش از متن توصیفی نیاز ندارد. این رویکرد می‌تواند فراتر از کتاب‌های صوتی به بازی‌ها، واقعیت مجازی و آموزش شخصی‌شده گسترش یابد، بسیار شبیه به نحوه‌ای که GANها پس از انتشار اولیه خود، صنایع کامل را به وجود آوردند.