ভাষা নির্বাচন করুন

STEPs-RL: ধ্বনিগতভাবে সঠিক উপস্থাপনা শেখার জন্য বক্তৃতা-পাঠ্য আন্তঃসংযোগ

একটি অভিনব বহু-মোডাল গভীর নিউরাল নেটওয়ার্ক স্থাপত্য যা বক্তৃতা ও পাঠ্য তথ্যকে আন্তঃসংযুক্ত করে ধ্বনিগতভাবে সঠিক কথ্য-শব্দ উপস্থাপনা শেখে, ধ্বনিগত, শব্দার্থিক ও বাক্যতাত্ত্বিক তথ্য ধারণ করে।
audio-novel.com | PDF Size: 0.4 MB
রেটিং: 4.5/5
আপনার রেটিং
আপনি ইতিমধ্যে এই ডকুমেন্ট রেট করেছেন
PDF ডকুমেন্ট কভার - STEPs-RL: ধ্বনিগতভাবে সঠিক উপস্থাপনা শেখার জন্য বক্তৃতা-পাঠ্য আন্তঃসংযোগ

1. ভূমিকা

বক্তৃতা ও পাঠ্য মানুষের যোগাযোগের প্রাথমিক মাধ্যম। যদিও ভাষা মডেলিং-এ সাম্প্রতিক অগ্রগতি (যেমন, BERT, GPT) পাঠ্য বোঝার ক্ষেত্রে বিপ্লব ঘটিয়েছে, বক্তৃতা থেকে মজবুত উপস্থাপনা শেখা এখনও চ্যালেঞ্জিং। বক্তৃতা সমৃদ্ধ প্যারালিংগুইস্টিক তথ্য (সুর, জোর) বহন করে এবং পরিবর্তনশীল দৈর্ঘ্যের ব্যবধান ও ওভারল্যাপিং ধ্বনিমূলার মতো সমস্যায় ভোগে। সম্পূর্ণ ধ্বনিগত মডেলগুলি প্রায়শই শব্দার্থিক ভিত্তির অভাব থাকে, অন্যদিকে পাঠ্য মডেলগুলি ধ্বনিগত সূক্ষ্মতা হারায়। STEPs-RL একটি অভিনব সমাধান প্রস্তাব করে: একটি সুপারভাইজড বহু-মোডাল স্থাপত্য যা বক্তৃতা ও পাঠ্য সংকেতকে আন্তঃসংযুক্ত করে ধ্বনিগতভাবে সঠিক, শব্দার্থিকভাবে সমৃদ্ধ কথ্য-শব্দ উপস্থাপনা শেখে। মূল অনুমান হল যে উভয় মোডালিটি যৌথভাবে মডেলিং করা লেটেন্ট স্পেসকে শব্দার্থিক ও বাক্যতাত্ত্বিক সম্পর্কের পাশাপাশি ধ্বনিগত কাঠামোও ধারণ করতে বাধ্য করে।

2. সম্পর্কিত গবেষণা

এই বিভাগটি বিদ্যমান গবেষণা ধারার মধ্যে STEPs-RL-এর প্রসঙ্গ স্থাপন করে।

2.1. বক্তৃতা উপস্থাপনা শেখা

প্রাথমিক পদ্ধতিগুলি সময়গত প্যাটার্ন ধারণ করতে DNN এবং অনুক্রমিক মডেল (RNN, LSTM, GRU) ব্যবহার করত। সাম্প্রতিক স্ব-তত্ত্বাবধায়িত পদ্ধতি যেমন wav2vec (Schneider et al.) কনট্রাস্টিভ লসের মাধ্যমে কাঁচা অডিও থেকে শেখে। TERA (Liu et al.) ধ্বনিগত ফ্রেমের ট্রান্সফরমার-ভিত্তিক পুনর্গঠন ব্যবহার করে। এই মডেলগুলি ধ্বনিগত বৈশিষ্ট্য শেখার ক্ষেত্রে উৎকর্ষ অর্জন করে কিন্তু উচ্চ-স্তরের শব্দার্থবিদ্যা ধারণ বা ধ্বনিগত এককের সাথে সারিবদ্ধ করার জন্য স্পষ্টভাবে ডিজাইন করা হয়নি।

2.2. পাঠ্য শব্দ উপস্থাপনা

Word2Vec এবং FastText এর মতো মডেলগুলি পাঠ্য কর্পোরা থেকে ঘন ভেক্টর এম্বেডিং শেখে, শব্দার্থিক ও বাক্যতাত্ত্বিক শব্দ সম্পর্ক ধারণ করে। যাইহোক, তারা শুধুমাত্র পাঠ্যের উপর কাজ করে, কথ্য ভাষার অন্তর্নিহিত ধ্বনিগত ও স্বরলৈখিক তথ্য বাতিল করে।

3. STEPs-RL মডেল

STEPs-RL একটি সুপারভাইজড গভীর নিউরাল নেটওয়ার্ক যা এর প্রাসঙ্গিক শব্দগুলির বক্তৃতা ও পাঠ্য ব্যবহার করে একটি লক্ষ্য কথ্য-শব্দের ধ্বনিগত অনুক্রম পূর্বাভাস করার জন্য ডিজাইন করা হয়েছে।

3.1. স্থাপত্য সংক্ষিপ্ত বিবরণ

মডেলটিতে সম্ভবত রয়েছে: (১) একটি বক্তৃতা এনকোডার (যেমন, CNN বা wav2vec-এর মতো নেটওয়ার্ক) যা কাঁচা অডিও/লগ-মেল স্পেকট্রোগ্রাম প্রক্রিয়া করে। (২) একটি পাঠ্য এনকোডার (যেমন, এম্বেডিং লেয়ার + RNN/Transformer) যা শব্দ প্রতিলিপি প্রক্রিয়া করে। (৩) একটি আন্তঃসংযোগ ফিউশন মডিউল যা দুটি মোডালিটিকে একত্রিত করে, সম্ভবত সংযোজন, অ্যাটেনশন মেকানিজম, বা ক্রস-মোডাল ট্রান্সফরমারের মাধ্যমে। (৪) একটি ডিকোডার (যেমন, অ্যাটেনশন সহ RNN) যা লক্ষ্য ধ্বনিগত অনুক্রম তৈরি করে (যেমন, আইপিএ প্রতীকগুলির একটি স্ট্রিং)।

3.2. বক্তৃতা-পাঠ্য আন্তঃসংযোগ প্রক্রিয়া

মূল উদ্ভাবন হল মোডালিটিগুলির মধ্যে বাধ্যতামূলক মিথস্ক্রিয়া। পাঠ্য একটি শক্তিশালী শব্দার্থিক ও বাক্যতাত্ত্বিক সংকেত প্রদান করে, অন্যদিকে বক্তৃতা ধ্বনিগত বাস্তবায়ন প্রদান করে। মডেলটিকে ধ্বনিগত পূর্বাভাস কাজটি সম্পাদন করার জন্য এগুলিকে সমন্বয় করতে হবে, যার ফলে একটি যৌথ উপস্থাপনা শেখা যায় যা ধ্বনিগতভাবে ভিত্তিযুক্ত এবং শব্দার্থিকভাবে সুসংগত।

3.3. প্রশিক্ষণ উদ্দেশ্য

মডেলটি একটি সুপারভাইজড লস ফাংশন দিয়ে প্রশিক্ষিত, সম্ভবত একটি অনুক্রম-থেকে-অনুক্রম লস যেমন কানেকশনিস্ট টেম্পোরাল ক্লাসিফিকেশন (CTC) বা ধ্বনিগত টোকেনের উপর ক্রস-এনট্রপি লস। উদ্দেশ্য হল লক্ষ্য শব্দের পূর্বাভাসিত ধ্বনিগত অনুক্রম এবং গ্রাউন্ড-ট্রুথ অনুক্রমের মধ্যে পার্থক্য কমানো।

4. প্রযুক্তিগত বিবরণ ও গাণিতিক সূত্রায়ন

ধরা যাক $A_c$ হল প্রাসঙ্গিক কথ্য শব্দের ধ্বনিগত বৈশিষ্ট্য অনুক্রম এবং $T_c$ হল এর পাঠ্য প্রতিলিপি। মডেলটি একটি ফাংশন $f$ শেখে যা এগুলিকে একটি লেটেন্ট উপস্থাপনা $z$-এ ম্যাপ করে: $$z = f_{\theta}(A_c, T_c)$$ যেখানে $\theta$ হল মডেল প্যারামিটার। এই উপস্থাপনা $z$ তারপর একটি ডিকোডার $g_{\phi}$ দ্বারা লক্ষ্য শব্দের ধ্বনিগত অনুক্রম $P_t$ পূর্বাভাস করতে ব্যবহৃত হয়: $$\hat{P}_t = g_{\phi}(z)$$ প্রশিক্ষণের উদ্দেশ্য হল নেতিবাচক লগ-সম্ভাবনা কমানো: $$\mathcal{L}(\theta, \phi) = -\sum \log p(P_t | \hat{P}_t; \theta, \phi)$$ এই সূত্রায়ন $z$-কে সঠিক ধ্বনিগত পূর্বাভাসের জন্য প্রয়োজনীয় তথ্য এনকোড করতে বাধ্য করে, যার জন্য অন্তর্নিহিতভাবে ধ্বনিগত সংকেত ($A_c$), এর পাঠ্য অর্থ ($T_c$), এবং লক্ষ্যের ধ্বনিগত কাঠামোর মধ্যে সম্পর্ক বোঝা প্রয়োজন।

5. পরীক্ষামূলক ফলাফল ও বিশ্লেষণ

ধ্বনিগত পূর্বাভাস নির্ভুলতা

৮৯.৪৭%

লক্ষ্য ধ্বনিগত অনুক্রম পূর্বাভাসে নির্ভুলতা।

বেঞ্চমার্ক ডেটাসেট

মূল্যায়নের জন্য ব্যবহৃত শব্দ সাদৃশ্য ডেটাসেট।

5.1. ধ্বনিগত অনুক্রম পূর্বাভাস

মডেলটি লক্ষ্য কথ্য শব্দগুলির ধ্বনিগত অনুক্রম পূর্বাভাসে ৮৯.৪৭% নির্ভুলতা অর্জন করেছে। এই উচ্চ নির্ভুলতা আন্তঃসংযুক্ত বক্তৃতা-পাঠ্য প্রসঙ্গ থেকে ধ্বনিগত আউটপুটে ম্যাপিং শেখার ক্ষেত্রে মডেলের কার্যকারিতা প্রদর্শন করে, মূল নকশাকে বৈধতা দেয়।

5.2. শব্দ সাদৃশ্য বেঞ্চমার্ক মূল্যায়ন

শেখা কথ্য-শব্দ এম্বেডিংগুলি চারটি স্ট্যান্ডার্ড শব্দ সাদৃশ্য বেঞ্চমার্কে (যেমন, WordSim-353, SimLex-999) মূল্যায়ন করা হয়েছিল। STEPs-RL এমেবডিংগুলি শুধুমাত্র পাঠ্য প্রতিলিপিতে প্রশিক্ষিত Word2Vec এবং FastText মডেলগুলির সাথে তুলনামূলক ফলাফল অর্জন করেছে। এটি একটি উল্লেখযোগ্য সন্ধান, কারণ এটি দেখায় যে বক্তৃতা-উদ্ভূত এম্বেডিংগুলি ধ্বনিগত সংকেত প্রক্রিয়াকরণের অতিরিক্ত চ্যালেঞ্জ সত্ত্বেও প্রায় বিশুদ্ধ পাঠ্য মডেলগুলির মতোই শব্দার্থিক সম্পর্ক ধারণ করে।

5.3. ভেক্টর স্পেস বিশ্লেষণ

ভেক্টর স্পেসের গুণগত বিশ্লেষণে প্রকাশ পেয়েছে যে একই রকম ধ্বনিগত কাঠামোর শব্দগুলি (যেমন, "bat," "cat," "hat") একসাথে ক্লাস্টার করা হয়েছিল। এটি নির্দেশ করে যে মডেলটি সফলভাবে ধ্বনিগত নিয়মিততা লেটেন্ট স্পেসে এনকোড করেছে, একটি বৈশিষ্ট্য যা পাঠ্য এম্বেডিং মডেলগুলি দ্বারা স্পষ্টভাবে লক্ষ্য করা হয়নি।

6. বিশ্লেষণ কাঠামো ও উদাহরণ কেস

বহু-মোডাল আন্তঃসংযোগ মূল্যায়নের কাঠামো: STEPs-RL-এর মতো একটি মডেল সত্যিই মোডালিটিগুলিকে আন্তঃসংযুক্ত করে নাকি শুধু একটি ব্যবহার করে তা মূল্যায়ন করতে, আমরা একটি মোডালিটি অপসারণ ও প্রোবিং কাঠামো প্রস্তাব করি।

  1. অপসারণ পরীক্ষা: ভেরিয়েন্ট প্রশিক্ষণ দিন: (ক) শুধুমাত্র বক্তৃতা ইনপুট (পাঠ্য মাস্ক করুন), (খ) শুধুমাত্র পাঠ্য ইনপুট (বক্তৃতা মাস্ক করুন)। ধ্বনিগত পূর্বাভাস ও শব্দার্থিক কাজে তাদের কর্মক্ষমতা তুলনা করুন। একটি সত্যিকারের আন্তঃসংযুক্ত মডেল উভয় অপসারণে উল্লেখযোগ্য কর্মক্ষমতা পতন দেখাবে, যা পারস্পরিক নির্ভরতা নির্দেশ করে।
  2. প্রোবিং কাজ: প্রশিক্ষণের পরে, মডেলটি ফ্রিজ করুন এবং লেটেন্ট উপস্থাপনা $z$-এর উপর সহজ লিনিয়ার ক্লাসিফায়ার প্রশিক্ষণ দিন যাতে নিম্নলিখিতগুলি পূর্বাভাস দেওয়া যায়:
    • ধ্বনিগত প্রোব: বক্তার পরিচয়, পিচ কনট্যুর।
    • শব্দার্থিক প্রোব: WordNet হাইপারনিম, অনুভূতি।
    • ধ্বনিগত প্রোব: নির্দিষ্ট ধ্বনিমূলার উপস্থিতি।
    সমস্ত প্রোবে উচ্চ নির্ভুলতা নির্দেশ করে যে $z$ একটি সমৃদ্ধ, আন্তঃসংযুক্ত উপস্থাপনা।

উদাহরণ কেস - "record" শব্দটি (বিশেষ্য বনাম ক্রিয়া): একটি শুধুমাত্র পাঠ্য মডেল হোমোগ্রাফের সাথে লড়াই করতে পারে। STEPs-RL, ধ্বনিগত সংকেত গ্রহণ করে, বক্তৃতা ইনপুট থেকে স্ট্রেস প্যাটার্ন (RE-cord বনাম re-CORD) ব্যবহার করে দ্ব্যর্থতা দূর করতে এবং দুটি অর্থকে যথাক্রমে ভেক্টর স্পেসে অন্যান্য বিশেষ্য বা ক্রিয়ার কাছাকাছি স্থাপন করতে পারে।

7. মূল অন্তর্দৃষ্টি ও সমালোচনামূলক বিশ্লেষণ

মূল অন্তর্দৃষ্টি: STEPs-RL-এর মৌলিক সাফল্য শুধু আরেকটি বহু-মোডাল মডেল নয়; এটি একটি কৌশলগত ধ্বনিগত পূর্বাভাসকে একটি সুপারভাইজারি বাধা হিসাবে পুনরায় উদ্দেশ্যে ব্যবহার যাতে ধ্বনিগত ও পাঠ্য সংকেতগুলিকে একটি রাসায়নিকভাবে বন্ধনযুক্ত উপস্থাপনায় বাধ্য করা যায়। এটি CycleGAN-এ (Zhu et al., 2017) প্রতিকূল গতিশীলতার অনুরূপ, যেখানে চক্র-সংগতি লস জোড়া ডেটা ছাড়াই ডোমেন অনুবাদ বাধ্য করে। এখানে, ধ্বনিগত কাজটি হল সংগতি সীমাবদ্ধতা, যা স্পষ্ট ক্রস-মোডাল সারিবদ্ধতা লেবেলের প্রয়োজন ছাড়াই মোডালিটিগুলিকে আন্তঃসংযুক্ত করে।

যুক্তিগত প্রবাহ: কাগজের যুক্তি মার্জিত: ১) বক্তৃতায় স্বরলেখা আছে/পাঠ্যে শব্দার্থবিদ্যা আছে → উভয়ই একা অসম্পূর্ণ। ২) ধ্বনিবিদ্যা হল শব্দকে প্রতীকের সাথে সংযুক্তকারী রোসেটা স্টোন। ৩) অতএব, প্রসঙ্গ থেকে ধ্বনিবিদ্যা পূর্বাভাস দেওয়া প্রয়োজন উভয় প্রবাহকে একত্রিত করা। ৪) ফলস্বরূপ ফিউশন (লেটেন্ট ভেক্টর) অবশ্যই তখন তিনটি বৈশিষ্ট্যে সমৃদ্ধ হতে হবে: ধ্বনিগত, শব্দার্থিক, ধ্বনিগত। শব্দ সাদৃশ্য ও ভেক্টর স্পেস ক্লাস্টারিং-এর পরীক্ষাগুলি সরাসরি পয়েন্ট ২ এবং ৪ পরীক্ষা করে, যা চিত্তাকর্ষক প্রমাণ প্রদান করে।

শক্তি ও ত্রুটি: শক্তি: প্রস্তাবনা বুদ্ধিদীপ্তভাবে মার্জিত এবং একটি সত্যিকারের ফাঁক মোকাবেলা করে। ফলাফলগুলি চিত্তাকর্ষক, বিশেষ করে শুধুমাত্র পাঠ্য মডেলগুলির সাথে তুলনামূলক কর্মক্ষমতা—এটি কাগজের কিলার ফ্যাক্ট। ধ্বনিগত সঠিকতার উপর ফোকাস একটি অনন্য এবং মূল্যবান অবদান, শুধুমাত্র শব্দার্থিক সাদৃশ্যের বাইরে এগিয়ে যাচ্ছে। ত্রুটি: শয়তান (স্থাপত্যিক) বিবরণে লুকিয়ে আছে, যা উপেক্ষা করা হয়েছে। "আন্তঃসংযোগ" ঠিক কীভাবে বাস্তবায়িত হয়? সহজ সংযোজন নাকি ক্রস-অ্যাটেনশনের মতো আরও পরিশীলিত কিছু? প্রশিক্ষণ ডেটার স্কেল ও গঠন অস্পষ্ট—এটি পুনরুৎপাদনযোগ্যতা এবং সাধারণীকরণ মূল্যায়নের জন্য গুরুত্বপূর্ণ। আধুনিক স্ব-তত্ত্বাবধায়িত বক্তৃতা মডেলগুলির সাথে তুলনা (যেমন MIT-এর CSAIL-এর HuBERT) সীমিত; Word2Vec-কে হারানো ভাল, কিন্তু ক্ষেত্রটি এগিয়ে গেছে। ৮৯.৪৭% ধ্বনিগত নির্ভুলতার একটি শক্তিশালী বেসলাইন তুলনার অভাব রয়েছে (যেমন, একটি ভাল ASR সিস্টেম এই কাজে কতটা ভাল করে?)।

কার্যকরী অন্তর্দৃষ্টি: গবেষকদের জন্য: মূল ধারণাটি সম্প্রসারণের জন্য প্রস্তুত। ধ্বনিগত ডিকোডারটিকে একটি মাস্কড ল্যাঙ্গুয়েজ মডেলিং উদ্দেশ্য (BERT-এর মতো) বা একটি কনট্রাস্টিভ লস (OpenAI-এর CLIP-এর মতো) দিয়ে প্রতিস্থাপন করুন। ট্রান্সফরমার এবং ওয়েব-স্কেল অডিও-পাঠ্য ডেটা (যেমন, YouTube ASR প্রতিলিপি) দিয়ে এটি স্কেল করুন। অনুশীলনকারীদের জন্য: এই কাজটি ইঙ্গিত দেয় যে বক্তৃতা এম্বেডিংগুলি শব্দার্থিকভাবে অর্থপূর্ণ হতে পারে। এমন মডেলগুলিকে ফাইন-টিউন করার কথা বিবেচনা করুন যেখানে পাঠ্য ডেটা দুর্লভ কিন্তু অডিও উপলব্ধ এমন কম-সম্পদ কথ্য ভাষা বোঝার কাজের জন্য, বা গ্রাহক সেবা কলগুলিতে প্যারালিংগুইস্টিক সংকেত সনাক্ত করার জন্য যা পাঠ্য প্রতিলিপি হারায়।

উপসংহারে, STEPs-RL একটি ধারণাগতভাবে শক্তিশালী বীজ কাগজ। এটি বৃহত্তম মডেল বা সর্বোচ্চ স্কোর উপস্থাপন নাও করতে পারে, কিন্তু এটি একাধিক ভাষা মোডালিটিকে একটি একক উপস্থাপনায় বেক করার জন্য একটি মৌলিকভাবে চতুর রেসিপি অফার করে। এর প্রকৃত মূল্য নির্ধারিত হবে এই রেসিপিটি বৃহত্তর সম্প্রদায়ের হাতে কতটা ভালভাবে স্কেল ও অভিযোজিত হয় তার উপর।

8. ভবিষ্যতের প্রয়োগ ও গবেষণা দিকনির্দেশ

  • কম-সম্পদ ও অলিখিত ভাষা: সীমিত লিপি বা পাঠ্য সম্পদ সহ ভাষাগুলির জন্য, স্পার্স পাঠ্যের সাথে জোড়া বক্তৃতা থেকে সরাসরি উপস্থাপনা শেখা NLP টুলগুলিকে সক্ষম করতে পারে।
  • অনুভূতিগত কম্পিউটিং ও অনুভূতি বিশ্লেষণ: পাঠ্য-ভিত্তিক অনুভূতি মডেলগুলিকে আন্তঃসংযুক্ত বক্তৃতা উপস্থাপনা দিয়ে উন্নত করা যাতে সুর, ব্যঙ্গ, এবং আবেগ ধারণ করা যায়, যেমন MIT মিডিয়া ল্যাব-এর মতো অনুভূতিগত কম্পিউটিং ল্যাবে গবেষণা করা হয়।
  • উন্নত বক্তৃতা সংশ্লেষণ (TTS): ধ্বনিগতভাবে সঠিক এম্বেডিংগুলিকে মধ্যবর্তী বৈশিষ্ট্য হিসাবে ব্যবহার করা আরও প্রাকৃতিক ও অভিব্যক্তিপূর্ণ TTS সিস্টেমের দিকে নিয়ে যেতে পারে, শব্দার্থিক প্রসঙ্গের উপর ভিত্তি করে স্বরলেখা নিয়ন্ত্রণ করে।
  • বহু-মোডাল ফাউন্ডেশন মডেল: আন্তঃসংযোগ ধারণাটি স্কেলিং করে বিশাল অডিও-পাঠ্য কর্পোরা (যেমন, অডিওবুক, লেকচার ভিডিও) উপর বৃহৎ-স্কেল প্রি-ট্রেনড মডেল তৈরি করা, Google-এর AudioLM বা Meta-এর ImageBind-এর অনুরূপ কিন্তু একটি শক্তিশালী ধ্বনিগত ভিত্তি সহ।
  • বক্তৃতা অনুবাদ ও ডায়ারাইজেশন: পাঠ্য থেকে শব্দার্থিক প্রসঙ্গ ব্যবহার করে স্পিকার ডায়ারাইজেশন উন্নত করা, বা ধ্বনিগত শৈলী সংরক্ষণ করে সরাসরি বক্তৃতা-থেকে-বক্তৃতা অনুবাদে সহায়তা করা।

9. তথ্যসূত্র

  1. Mishra, P. (2020). STEPs-RL: Speech-Text Entanglement for Phonetically Sound Representation Learning. arXiv preprint arXiv:2011.11387.
  2. Schneider, S., Baevski, A., Collobert, R., & Auli, M. (2019). wav2vec: Unsupervised Pre-training for Speech Recognition. arXiv preprint arXiv:1904.05862.
  3. Liu, A., et al. (2020). TERA: Self-Supervised Learning of Transformer Encoder Representation for Speech. IEEE/ACM Transactions on Audio, Speech, and Language Processing.
  4. Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient Estimation of Word Representations in Vector Space. arXiv preprint arXiv:1301.3781.
  5. Bojanowski, P., Grave, E., Joulin, A., & Mikolov, T. (2017). Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics.
  6. Zhu, J., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV).
  7. Radford, A., et al. (2021). Learning Transferable Visual Models From Natural Language Supervision. International Conference on Machine Learning (ICML).
  8. MIT Computer Science & Artificial Intelligence Laboratory (CSAIL). Research on Self-Supervised Speech Processing. https://www.csail.mit.edu