◆◆ WAVファイルでSTT→翻訳→TTS① ◆◆
目次
このステップで学ぶこと:ステップ3のゴール
✅ 音声(日本語) → テキスト(日本語) → 翻訳(英語) → 音声(英語)
✅ Azure Translator API で日本語テキストを英語に翻訳
✅ Azure Speech Synthesis API で英語テキストを音声化(TTS)
✅ リアルタイム処理に向けた設計を考える
ステップ3の作業フロー
1.Azure Translator API のテスト
- 日本語テキストを英語に翻訳
- 翻訳の品質チェック
2.Azure Speech Synthesis API のテスト
- 英語のテキストを音声化(TTS)
- 出力の音質チェック
3.音声認識(STT) → 翻訳 → 音声合成(TTS)の統合
- 日本語音声 → 英語音声 の変換を自動化
- すべてのプロセスを1つのスクリプトでまとめる
4.リアルタイム処理の検討
- WebSocket を使ったストリーミング方式か、バッチ処理で対応するか決定
speech_translation.py の構成
各ステップごとにメソッド化し処理を進める。
🟢 1. Azure Translator API のテスト
translate_text() → 日本語テキストを英語に翻訳
🟢 2. Azure Speech Synthesis API のテスト
text_to_speech() → 翻訳後の英語テキストを音声合成(TTS)
🟢 3. STT → 翻訳 → TTS の統合(ステップ2のモノを使う)
recognize_speech_from_audio() → 音声 → テキスト(STT)
translate_text() → 日本語テキストを英語テキストに翻訳
text_to_speech() → 英語テキストを音声合成し、再生
🟢 4. リアルタイム処理の検討
WebSocket を使うか、バッチ処理にするかの決定(後で実装)
✅ 次のステップで、プログラムを実装する
>>>> ステップ3:WAVファイルでSTT→翻訳→TTS②