国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理

這篇具有很好參考價(jià)值的文章主要介紹了Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理

目錄

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理

一、簡(jiǎn)單介紹

二、實(shí)現(xiàn)原理

三、注意實(shí)現(xiàn)

四、實(shí)現(xiàn)步驟

?五、關(guān)鍵腳本


一、簡(jiǎn)單介紹

Unity 工具類,自己整理的一些游戲開發(fā)可能用到的模塊,單獨(dú)獨(dú)立使用,方便游戲開發(fā)。

本節(jié)介紹,這里在使用微軟的Azure 進(jìn)行語音合成的兩個(gè)方法的做簡(jiǎn)單整理,這里簡(jiǎn)單說明,如果你有更好的方法,歡迎留言交流。

官網(wǎng)注冊(cè):

面向?qū)W生的 Azure - 免費(fèi)帳戶額度 | Microsoft Azure

官網(wǎng)技術(shù)文檔網(wǎng)址:

技術(shù)文檔 | Microsoft Learn

官網(wǎng)的TTS:

語音轉(zhuǎn)文本快速入門 - 語音服務(wù) - Azure AI services | Microsoft Learn

Azure Unity SDK? 包官網(wǎng):

安裝語音 SDK - Azure Cognitive Services | Microsoft Learn

SDK具體鏈接:

https://aka.ms/csspeech/unitypackage
Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

二、實(shí)現(xiàn)原理

1、官網(wǎng)申請(qǐng)得到語音識(shí)別對(duì)應(yīng)的 SPEECH_KEY 和 SPEECH_REGION

2、因?yàn)檎Z音識(shí)別需要用到麥克風(fēng),移動(dòng)端需要申請(qǐng)麥克風(fēng)權(quán)限

3、開啟語音識(shí)別,監(jiān)聽語音識(shí)別對(duì)應(yīng)事件,即可獲取到識(shí)別結(jié)果

三、注意實(shí)現(xiàn)

1、注意如果有卡頓什么的,注意主子線程切換,可能可以適當(dāng)解決你的卡頓現(xiàn)象

2、注意電腦端(例如windows)運(yùn)行可以不申請(qǐng)麥克風(fēng)權(quán)限,但是移動(dòng)端(例如Android)運(yùn)行要申請(qǐng)麥克風(fēng)權(quán)限,不然無法開啟識(shí)別成功,可能會(huì)報(bào)錯(cuò):Exception with an error code: 0x15

<uses-permission android:name="android.permission.RECORD_AUDIO"/>

System.ApplicationException: Exception with an error code: 0x15 at Microsoft.CognitiveServices.Speech.Internal.SpxExceptionThrower.ThrowIfFail (System.IntPtr hr) [0x00000] in <00000000000000000000000000000000>:0 at Microsoft.CognitiveServices.Speech.Recognizer.StartContinuousRecognition () [0x00000] in <00000000000000000000000000000000>:0 at Microsoft.CognitiveServices.Speech.Recognizer.DoAsyncRecognitionAction (System.Action recoImplAction) [0x00000] in <00000000000000000000000000000000>:0 at System.Threading.Tasks.Task.Execute () [0x00000] in <00000000000000000000000000000000>:0 at System.Threading.ExecutionContext.RunInternal (System.Threading.ExecutionContext executionContext, System.Threading.ContextCallback callback, System.Object state, System.Boolean preserveSyncCtx) [0x00000] in <00000000000000000000000000000000>:0 at System.Threading.Tasks.Task.ExecuteWithThreadLocal (System.Threading.Tasks.Task& currentTaskSlot) [0x00000] in

四、實(shí)現(xiàn)步驟

1、下載好SDK 導(dǎo)入

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

2、簡(jiǎn)單的搭建場(chǎng)景

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

3、編寫對(duì)應(yīng)腳本,測(cè)試語音識(shí)別功能

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

4、把測(cè)試腳本添加到場(chǎng)景中,并賦值

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

5、如果移動(dòng)端,例如 Android 端,勾選如下,添加麥克風(fēng)權(quán)限

<uses-permission android:name="android.permission.RECORD_AUDIO"/>

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

5、運(yùn)行,點(diǎn)擊對(duì)應(yīng)按鈕,開始識(shí)別,Console 中可以看到識(shí)別結(jié)果

Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理,Unity,microsoft,azure,語音識(shí)別,ASR,連續(xù)語音識(shí)別

?五、關(guān)鍵腳本

1、TestSpeechRecognitionHandler


using UnityEngine;
using UnityEngine.Android;
using UnityEngine.UI;

public class TestSpeechRecognitionHandler : MonoBehaviour
{
    #region Data
    
    /// <summary>
    /// 按鈕,文本
    /// </summary>
    public Button QuitButton;
    public Button ASRButton;
    public Button StopASRButton;
    public Text ASRText;

    /// <summary>
    /// m_SpeechAndKeywordRecognitionHandler
    /// </summary>
    SpeechRecognitionHandler m_SpeechAndKeywordRecognitionHandler;
    #endregion
    #region Liefecycle function

    /// <summary>
    /// Start
    /// </summary>
    void Start()
    {
        QuitButton.onClick.AddListener(OnClickQuitButton);
        ASRButton.onClick.AddListener(OnClickASRButton);
        StopASRButton.onClick.AddListener(OnClickStopASRButton);

        // 請(qǐng)求麥克風(fēng)權(quán)限
        RequestMicrophonePermission();
    }

    /// <summary>
    /// 應(yīng)用退出
    /// </summary>
    async void OnApplicationQuit() {
        await m_SpeechAndKeywordRecognitionHandler.StopContinuousRecognizer();
    }

    #endregion

    #region Private function
    /// <summary>
    /// RequestMicrophonePermission
    /// </summary>
    void RequestMicrophonePermission()
    {
        // 檢查當(dāng)前平臺(tái)是否為 Android
        if (Application.platform == RuntimePlatform.Android)
        {
            // 檢查是否已經(jīng)授予麥克風(fēng)權(quán)限
            if (!Permission.HasUserAuthorizedPermission(Permission.Microphone))
            {
                // 如果沒有權(quán)限,請(qǐng)求用戶授權(quán)
                Permission.RequestUserPermission(Permission.Microphone);
            }
        }
        else
        {
            // 在其他平臺(tái)上,可以執(zhí)行其他平臺(tái)特定的邏輯
            Debug.LogWarning("Microphone permission is not needed on this platform.");
        }

        SpeechInitialized();
    }

    /// <summary>
    /// SpeechInitialized
    /// </summary>
    private void SpeechInitialized() {
        ASRText.text = "";
        m_SpeechAndKeywordRecognitionHandler = new SpeechRecognitionHandler();
        m_SpeechAndKeywordRecognitionHandler.onRecognizingAction = (str) => { Debug.Log("onRecognizingAction: " + str); };
        m_SpeechAndKeywordRecognitionHandler.onRecognizedSpeechAction = (str) => { Loom.QueueOnMainThread(() => ASRText.text += str);  Debug.Log("onRecognizedSpeechAction: " + str); };
        m_SpeechAndKeywordRecognitionHandler.onErrorAction = (str) => { Debug.Log("onErrorAction: " + str); };
        m_SpeechAndKeywordRecognitionHandler.Initialized();
    }
    /// <summary>
    /// OnClickQuitButton
    /// </summary>
    private void OnClickQuitButton() {
#if UNITY_EDITOR
        UnityEditor.EditorApplication.isPlaying = false;

#else
                Application.Quit();
#endif 
    }
    /// <summary>
    /// OnClickASRButton
    /// </summary>
    private void OnClickASRButton() {
        m_SpeechAndKeywordRecognitionHandler.StartContinuousRecognizer();
    }

    /// <summary>
    /// OnClickStopASRButton
    /// </summary>
    private async void OnClickStopASRButton()
    {
        await m_SpeechAndKeywordRecognitionHandler.StopContinuousRecognizer();
    }

    #endregion
}

2、SpeechRecognitionHandler

using UnityEngine;
using Microsoft.CognitiveServices.Speech;
using Microsoft.CognitiveServices.Speech.Audio;
using System;
using Task = System.Threading.Tasks.Task;

/// <summary>
/// 語音識(shí)別轉(zhuǎn)文本和關(guān)鍵詞識(shí)別
/// </summary>
public class SpeechRecognitionHandler
{
    #region Data

    /// <summary>
    /// 
    /// </summary>
    const string TAG = "[SpeechAndKeywordRecognitionHandler] ";

    /// <summary>
    /// 識(shí)別配置
    /// </summary>
    private SpeechConfig m_SpeechConfig;

    /// <summary>
    /// 音頻配置
    /// </summary>
    private AudioConfig m_AudioConfig;

    /// <summary>
    /// 語音識(shí)別
    /// </summary>
    private SpeechRecognizer m_SpeechRecognizer;

    /// <summary>
    /// LLM 大模型配置
    /// </summary>
    private ASRConfig m_ASRConfig;

    /// <summary>
    /// 識(shí)別的事件
    /// </summary>
    public Action<string> onRecognizingAction;
    public Action<string> onRecognizedSpeechAction;
    public Action<string> onErrorAction;
    public Action<string> onSessionStoppedAction;


    #endregion
    #region Public function

    /// <summary>
    /// 初始化
    /// </summary>
    /// <returns></returns>
    public async void Initialized()
    {
        m_ASRConfig = new ASRConfig();

        Debug.Log(TAG + "m_LLMConfig.AZURE_SPEECH_RECOGNITION_LANGUAGE " + m_ASRConfig.AZURE_SPEECH_RECOGNITION_LANGUAGE);
        Debug.Log(TAG + "m_LLMConfig.AZURE_SPEECH_REGION " + m_ASRConfig.AZURE_SPEECH_REGION);

        m_SpeechConfig = SpeechConfig.FromSubscription(m_ASRConfig.AZURE_SPEECH_KEY, m_ASRConfig.AZURE_SPEECH_REGION);
        m_SpeechConfig.SpeechRecognitionLanguage = m_ASRConfig.AZURE_SPEECH_RECOGNITION_LANGUAGE;


        m_AudioConfig = AudioConfig.FromDefaultMicrophoneInput();

        Debug.Log(TAG + " Initialized 2 ====");

        // 根據(jù)自己需要處理(不需要也行)
        await Task.Delay(100);
    }

    #endregion

    #region Private function

    /// <summary>
    /// 設(shè)置識(shí)別回調(diào)事件
    /// </summary>
    private void SetRecoginzeCallback()
    {
        Debug.Log(TAG + " SetRecoginzeCallback == ");
        if (m_SpeechRecognizer != null)
        {
            m_SpeechRecognizer.Recognizing += OnRecognizing;

            m_SpeechRecognizer.Recognized += OnRecognized;

            m_SpeechRecognizer.Canceled += OnCanceled;

            m_SpeechRecognizer.SessionStopped += OnSessionStopped;

            Debug.Log(TAG+" SetRecoginzeCallback OK ");
        }
    }

    #endregion

    #region Callback
    /// <summary>
    /// 正在識(shí)別
    /// </summary>
    /// <param name="s"></param>
    /// <param name="e"></param>
    private void OnRecognizing(object s, SpeechRecognitionEventArgs e)
    {
        Debug.Log(TAG + "RecognizingSpeech:" + e.Result.Text + " :[e.Result.Reason]:" + e.Result.Reason);
        if (e.Result.Reason == ResultReason.RecognizingSpeech )
        {
            Debug.Log(TAG + " Trigger onRecognizingAction is null :" + onRecognizingAction == null);

            onRecognizingAction?.Invoke(e.Result.Text);
        }
    }

    /// <summary>
    /// 識(shí)別結(jié)束
    /// </summary>
    /// <param name="s"></param>
    /// <param name="e"></param>
    private void OnRecognized(object s, SpeechRecognitionEventArgs e)
    {
        Debug.Log(TAG + "RecognizedSpeech:" + e.Result.Text + " :[e.Result.Reason]:" + e.Result.Reason);
        if (e.Result.Reason == ResultReason.RecognizedSpeech )
        {
            bool tmp = onRecognizedSpeechAction == null;
            Debug.Log(TAG + " Trigger onRecognizedSpeechAction is null :" + tmp);

            onRecognizedSpeechAction?.Invoke(e.Result.Text);
        }
    }

    /// <summary>
    /// 識(shí)別取消
    /// </summary>
    /// <param name="s"></param>
    /// <param name="e"></param>
    private void OnCanceled(object s, SpeechRecognitionCanceledEventArgs e)
    {
        Debug.LogFormat(TAG+"Canceled: Reason={0}", e.Reason );

        if (e.Reason == CancellationReason.Error)
        {
            onErrorAction?.Invoke(e.ErrorDetails);
        }
    }

    /// <summary>
    /// 會(huì)話結(jié)束
    /// </summary>
    /// <param name="s"></param>
    /// <param name="e"></param>
    private void OnSessionStopped(object s, SessionEventArgs e)
    {
        Debug.Log(TAG+"Session stopped event." );
        onSessionStoppedAction?.Invoke("Session stopped event.");
    }

    
    #endregion


    #region 連續(xù)語音識(shí)別轉(zhuǎn)文本

    /// <summary>
    /// 開啟連續(xù)語音識(shí)別轉(zhuǎn)文本
    /// </summary>
    public void StartContinuousRecognizer()
    {
        Debug.LogWarning(TAG + "StartContinuousRecognizer");

        try
        {
            // 轉(zhuǎn)到異步中(根據(jù)自己需要處理)
            Loom.RunAsync(async () => {
                try
                {
                    if (m_SpeechRecognizer != null)
                    {
                        m_SpeechRecognizer.Dispose();
                        m_SpeechRecognizer = null;
                    }

                    if (m_SpeechRecognizer == null)
                    {
                        m_SpeechRecognizer = new SpeechRecognizer(m_SpeechConfig, m_AudioConfig);

                        SetRecoginzeCallback();
                    }

                    await m_SpeechRecognizer.StartContinuousRecognitionAsync().ConfigureAwait(false);

                    Loom.QueueOnMainThread(() => {
                        Debug.LogWarning(TAG + "StartContinuousRecognizer QueueOnMainThread ok");
                    });
                    Debug.LogWarning(TAG + "StartContinuousRecognizer RunAsync ok");
                }
                catch (Exception e)
                {
                    Loom.QueueOnMainThread(() =>
                    {
                        Debug.LogError(TAG + " StartContinuousRecognizer 0 " + e);
                    });
                }

            });
        }
        catch (Exception e)
        {
            Debug.LogError(TAG + " StartContinuousRecognizer 1 " + e);
        }

    }

    /// <summary>
    /// 結(jié)束連續(xù)語音識(shí)別轉(zhuǎn)文本
    /// </summary>
    public async Task StopContinuousRecognizer()
    {
        try
        {
            if (m_SpeechRecognizer != null)
            {
                await m_SpeechRecognizer.StopContinuousRecognitionAsync().ConfigureAwait(false);
                //m_SpeechRecognizer.Dispose();
                //m_SpeechRecognizer = null;
                Debug.LogWarning(TAG + " StopContinuousRecognizer");
            }
        }
        catch (Exception e)
        {
            Debug.LogError(TAG + " StopContinuousRecognizer Exception : " + e);
        }
    }

    #endregion

}

3、ASRConfig文章來源地址http://www.zghlxwxcb.cn/news/detail-790103.html



public class ASRConfig 
{
    #region Azure ASR

    /// <summary>
    /// AZURE_SPEECH_KEY
    /// </summary>
    public virtual string AZURE_SPEECH_KEY { get; } = @"You_Key";
    /// <summary>
    /// AZURE_SPEECH_REGION
    /// </summary>
    public virtual string AZURE_SPEECH_REGION { get; } = @"eastasia";
    /// <summary>
    /// AZURE_SPEECH_RECOGNITION_LANGUAGE
    /// </summary>
    public virtual string AZURE_SPEECH_RECOGNITION_LANGUAGE { get; } = @"zh-CN";

    #endregion
}

到了這里,關(guān)于Unity 工具 之 Azure 微軟連續(xù)語音識(shí)別ASR的簡(jiǎn)單整理的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 開源(離線)中文語音識(shí)別ASR(語音轉(zhuǎn)文本)工具整理

    開源(離線)中文語音識(shí)別ASR(語音轉(zhuǎn)文本)工具整理 Open AI在2022年9月21日開源了號(hào)稱其英文語音辨識(shí)能力已達(dá)到人類水準(zhǔn)的Whisper神經(jīng)網(wǎng)絡(luò),且它亦支持其它98種語言的自動(dòng)語音辨識(shí)。 Whisper系統(tǒng)所提供的自動(dòng)語音辨識(shí)(Automatic Speech Recognition,ASR)模型是被訓(xùn)練來運(yùn)行語音辨識(shí)與翻

    2024年02月13日
    瀏覽(102)
  • 音頻深度學(xué)習(xí)變得簡(jiǎn)單:自動(dòng)語音識(shí)別 (ASR),它是如何工作的

    ????????在過去的幾年里,隨著Google Home,Amazon Echo,Siri,Cortana等的普及,語音助手已經(jīng)無處不在。這些是自動(dòng)語音識(shí)別 (ASR) 最著名的示例。此類應(yīng)用程序從某種語言的語音音頻剪輯開始,并將說出的單詞提取為文本。因此,它們也稱為語音轉(zhuǎn)文本算法。 ????????

    2024年02月15日
    瀏覽(20)
  • azure微軟文字轉(zhuǎn)語音工具?AzureTools?使用

    azure微軟文字轉(zhuǎn)語音工具?AzureTools?使用

    文章目錄 前言 一、 AzureTools 是什么? 二、使用步驟 1.安裝 2.使用 總結(jié) 最近事情不多,作為開發(fā)人員總是停不下來,就想寫點(diǎn)啥,研究點(diǎn)啥。當(dāng)下短視頻比較火所以研究了下視頻剪輯,發(fā)現(xiàn)很多人在用微軟的Azure文字轉(zhuǎn)語音功能實(shí)現(xiàn)配音,但是使用這個(gè)有一個(gè)弊端就是轉(zhuǎn)完后

    2024年02月04日
    瀏覽(34)
  • azure微軟文字轉(zhuǎn)語音小工具V1.3.2(ai智能配音,目前最好用)的使用說明和下載

    azure微軟文字轉(zhuǎn)語音小工具V1.3.2(ai智能配音,目前最好用)的使用說明和下載

    概括: azure微軟文字轉(zhuǎn)語音小工具是調(diào)用azure服務(wù)器的程序,可能是目前最好用的配音軟件。其配音效果幾乎與真人沒有區(qū)別(非常仔細(xì)聽可能有些許區(qū)別)。 擁有12種熱門配音聲音,4男8女,可調(diào)整多種情緒,語音速度,音調(diào)自定義,支持幾十個(gè)國(guó)家語言合成,微軟接口,目

    2024年02月05日
    瀏覽(35)
  • ASR項(xiàng)目實(shí)戰(zhàn)-語音識(shí)別

    本文深入探討語音識(shí)別處理環(huán)節(jié)。 本階段的重點(diǎn)特性為語音識(shí)別、VAD、熱詞、文本的時(shí)間偏移、講話人的識(shí)別等。 業(yè)界流派眾多,比如Kaldi、端到端等,具體選擇哪一種,需要綜合考慮人員能力、訓(xùn)練數(shù)據(jù)量和質(zhì)量、硬件設(shè)施、交付周期等,作出相對(duì)合理的交付規(guī)劃。 基于

    2024年02月04日
    瀏覽(31)
  • 語音識(shí)別 - ASR whisper

    語音識(shí)別 - ASR whisper

    目錄 1. 簡(jiǎn)單介紹 2.?代碼調(diào)用 Introducing Whisper https://openai.com/blog/whisper/ OpenAI 的開源自動(dòng)語音識(shí)別神經(jīng)網(wǎng)絡(luò) whisper 安裝 Python 調(diào)用

    2024年02月12日
    瀏覽(22)
  • ASR 語音識(shí)別接口封裝和分析

    ASR 語音識(shí)別接口封裝和分析

    這個(gè)文檔主要是介紹一下我自己封裝了 6 家廠商的 短語音識(shí)別 和 實(shí)時(shí)流語音識(shí)別 接口的一個(gè)包,以及對(duì)這些接口的一個(gè)對(duì)比。分別是,阿里,快商通,百度,騰訊,科大,字節(jié)。 zxmfke/asrfactory (github.com) 之前剛好在測(cè)試各家的語音識(shí)別相關(guān)功能,但是每家的返回值都不同,

    2024年02月13日
    瀏覽(25)
  • Python使用PaddleSpeech實(shí)現(xiàn)語音識(shí)別(ASR)、語音合成(TTS)

    Python使用PaddleSpeech實(shí)現(xiàn)語音識(shí)別(ASR)、語音合成(TTS)

    目錄 安裝 語音識(shí)別 補(bǔ)全標(biāo)點(diǎn) 語音合成 參考 PaddleSpeech是百度飛槳開發(fā)的語音工具 注意,PaddleSpeech不支持過高版本的Python,因?yàn)樵诟甙姹镜腜ython中,飛槳不再提供paddle.fluid API。這里面我用的是Python3.7 需要通過3個(gè)pip命令安裝PaddleSpeech: 在使用的時(shí)候,urllib3庫(kù)可能會(huì)報(bào)錯(cuò),因

    2024年04月25日
    瀏覽(28)
  • Python使用whisper實(shí)現(xiàn)語音識(shí)別(ASR)

    目錄 Whisper的安裝 Whisper的基本使用 識(shí)別結(jié)果轉(zhuǎn)簡(jiǎn)體中文 斷句 Whisper是OpenAI的一個(gè)強(qiáng)大的語音識(shí)別庫(kù),支持離線的語音識(shí)別。在使用之前,需要先安裝它的庫(kù): 使用whisper,還需安裝setuptools-rust: 但是,whisper安裝時(shí),自帶的pytorch可能有些bug,因此需要卸載重裝: 卸載: 重裝

    2024年03月20日
    瀏覽(99)
  • 兩分鐘克隆你的聲音,支持替換電影和視頻里面的聲音,免費(fèi)使用支持docker一鍵部署,集成工具包括聲音伴奏分離、自動(dòng)訓(xùn)練集分割、中文自動(dòng)語音識(shí)別(ASR)和文本標(biāo)注

    兩分鐘克隆你的聲音,支持替換電影和視頻里面的聲音,免費(fèi)使用支持docker一鍵部署,集成工具包括聲音伴奏分離、自動(dòng)訓(xùn)練集分割、中文自動(dòng)語音識(shí)別(ASR)和文本標(biāo)注

    兩分鐘克隆你的聲音,支持替換電影和視頻里面的聲音,免費(fèi)使用支持docker一鍵部署,集成工具包括聲音伴奏分離、自動(dòng)訓(xùn)練集分割、中文自動(dòng)語音識(shí)別(ASR)和文本標(biāo)注。 查看我們的介紹視頻 demo video 中國(guó)地區(qū)用戶可使用 AutoDL 云端鏡像進(jìn)行體驗(yàn):https://www.codewithgpu.com/i/RVC-

    2024年02月20日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包