Android TTS系列三—Android speech包源码剖析

2020-12-23 15:16:27

参考地址 Android TTS系列三——Android speech包源码剖析

源码地址:https://github.com/yellowgreatsun/MXTtsEngine

前两篇文章即Android TTS系列一——如何让app具备tts能力Android TTS系列二——如何开发一款系统级tts引擎?分别分享了如何让app具备tts能力和如何开发tts引擎,这篇文章会分享下speech包源码,我们会更明白speech包接口的来龙去脉。这部分之前在公司内部分享讲过一次,但发现写成文章还是很吃力的,我会尽量讲解清楚。另外,引用的代码我会略去一些不太关键的部分,避免文章太冗长。

为便于理解,我按照这个思路来进行分享:

  • speech包的源码结构

  • TextToSpeech的接口剖析

  • TextToSpeech的接口如何通过TextToSpeechService来实现

  • TextToSpeechService的实现如何回调回去

一、speech包的源码结构

speech源码路径:/frameworks/base/core/java/android/speech
先来看一下speech包的源码结构:

speech包源码.jpg


这里面,比较关键的有:TextToSpeech、TextToSpeechService、ITextToSpeechService、ITextToSpeechCallback、SynthesisCallback及其实现类(PlaybackSynthesisCallback和FileSynthesisCallback)。前两个小伙伴们已经不陌生了,一个是调用tts的接口,一个是实现tts的能力,后几个则是将它俩关联起来。


二、TextToSpeech的接口剖析

这里,我们只对构造方法、speck、synthesizeToFile进行剖析,其它的诸如setLanguage、getEngines,看了这篇分享后,会很容易理解的,所以不再写出来。

1.构造方法

构造方法有三个:

  • TextToSpeech(Context context, OnInitListener listener)

  • TextToSpeech(Context context, OnInitListener listener, String engine)

  • TextToSpeech(Context context, OnInitListener listener, String engine,String packageName, boolean useFallback)
    看代码会发现,前两个最终还是调用了第三个。

  public TextToSpeech(Context context, OnInitListener listener, String engine,
            String packageName, boolean useFallback) {
        mContext = context;
        mInitListener = listener;
        mRequestedEngine = engine;
        mUseFallback = useFallback;
        initTts();
    }

前面一些赋值容易明白,关键信息在initTts()里。

  private int initTts() {
        // Step 1: Try connecting to the engine that was requested.
        if (connectToEngine(mRequestedEngine)) {
          mCurrentEngine = mRequestedEngine;
          return SUCCESS;
        }

        // Step 2: Try connecting to the user's default engine.
        final String defaultEngine = getDefaultEngine();
        if (defaultEngine != null && !defaultEngine.equals(mRequestedEngine)) {
            if (connectToEngine(defaultEngine)) {
                mCurrentEngine = defaultEngine;
                return SUCCESS;
            }
        }

        // Step 3: Try connecting to the highest ranked engine in the
        // system.
        final String highestRanked = mEnginesHelper.getHighestRankedEngineName();
        if (highestRanked != null && !highestRanked.equals(mRequestedEngine) &&
                !highestRanked.equals(defaultEngine)) {
            if (connectToEngine(highestRanked)) {
                mCurrentEngine = highestRanked;
                return SUCCESS;
            }
        }

        mCurrentEngine = null;
        dispatchOnInit(ERROR);
        return ERROR;
    }

看注释也能明白,initTts会按照这样一个顺序:指定的tts引擎(通过包名,构造方法中的参数engine)、默认的tts引擎、最常用的tts引擎。但这些对于我们理解speech源码不是最关键的,关键的在于connectToEngine(engine),有没有发现,三种创建引擎的方式最终都调它了。如果connectToEngine返回false了,也就通过 dispatchOnInit(ERROR)告诉调用者失败了。那就看下connectToEngine吧。

  private boolean connectToEngine(String engine) {
        Connection connection = new Connection();
        Intent intent = new Intent(Engine.INTENT_ACTION_TTS_SERVICE);
        intent.setPackage(engine);
        boolean bound = mContext.bindService(intent, connection, Context.BIND_AUTO_CREATE);
        if (!bound) {
            return false;
        } else {
            mConnectingServiceConnection = connection;
            return true;
        }
    }

到这里,我们就明白了,哦,原来是bind一个Service呀。指定了action为Engine.INTENT_ACTION_TTS_SERVICE,这就是在第二篇文章中,TextToSpeechService的实现类在mainfest中声明该action的原因。Connection太长,只看onServiceConnected吧。

    @Override
     public void onServiceConnected(ComponentName name, IBinder service) {
            synchronized(mStartLock) {
                mService = ITextToSpeechService.Stub.asInterface(service);
                mServiceConnection = Connection.this;
                mOnSetupConnectionAsyncTask = new SetupConnectionAsyncTask(name);
                mOnSetupConnectionAsyncTask.execute();
            }
     }

在这里,拿到了mService的实例,bind的是远程Service,TextToSpeech的其它接口,也是再调用 ITextToSpeechService下的接口。然后通过mOnSetupConnectionAsyncTask中的dispatchOnInit(result)来回调初始化成功。
构造方法就先说到这里。

2.speak(text,queueMode,params,utteranceId)

看代码会发现,最终调用了service.speak(getCallerIdentity(), text, queueMode, getParams(params),utteranceId)。明白这一点就先可以了。

3.synthesizeToFile(text,params,file,utteranceId)

类似于speak,synthesizeToFile最终调用的service.synthesizeToFileDescriptor(getCallerIdentity(), text,fileDescriptor, getParams(params), utteranceId)

接下来,我们将进入TextToSpeechService,去探究下service.speak和service.synthesizeToFileDescriptor。

三、TextToSpeech的接口如何通过TextToSpeechService来实现

这部分比较长,我们一点点来看。

1.mBinder

通过对TextToSpeech构造方法的剖析,我们了解了它是通过绑定远程Service来实现的,而远程Service(也就是TTSEngine中的Service,比如我们的MoxiangTtsService)是继承的TextToSpeechService,所以重点看它就行了。首先要看下它的onBind

    @Override
    public IBinder onBind(Intent intent) {
        if (Engine.INTENT_ACTION_TTS_SERVICE.equals(intent.getAction())) {
            return mBinder;
        }
        return null;
    }

mBinder 的实例化非常长,毕竟要把ITextToSpeechService的各个接口实现完。这里只贴出来我们关心的两个,即speaksynthesizeToFileDescriptor

    private final ITextToSpeechService.Stub mBinder = new ITextToSpeechService.Stub() {
        
        @Override
        public int speak(IBinder caller, CharSequence text, int queueMode, Bundle params,
                String utteranceId) {
            SpeechItem item = new SynthesisSpeechItemV1(caller,
                    Binder.getCallingUid(), Binder.getCallingPid(), params, utteranceId, text);
            return mSynthHandler.enqueueSpeechItem(queueMode, item);
        }

        @Override
        public int synthesizeToFileDescriptor(IBinder caller, CharSequence text, ParcelFileDescriptor
                fileDescriptor, Bundle params, String utteranceId) {
            final ParcelFileDescriptor sameFileDescriptor = ParcelFileDescriptor.adoptFd(
                    fileDescriptor.detachFd());
            SpeechItem item = new SynthesisToFileOutputStreamSpeechItemV1(caller,
                    Binder.getCallingUid(), Binder.getCallingPid(), params, utteranceId, text,
                    new ParcelFileDescriptor.AutoCloseOutputStream(sameFileDescriptor));
            return mSynthHandler.enqueueSpeechItem(android.speech.tts.TextToSpeech.QUEUE_ADD, item);
        }

        ……    }

这样,一下子就明白了,speak的实现又调了mSynthHandler.enqueueSpeechItem,mSynthHandler就是一个Handler,字面理解该接口,就是将text的语音合成加入了队列。synthesizeToFileDescriptor的实现竟也是调了mSynthHandler.enqueueSpeechItem,当然了,参数item不同,奥秘,这里有奥秘。

2.speak

上面已经说了,其实现是调mSynthHandler.enqueueSpeechItem,来,继续。

        public int enqueueSpeechItem(int queueMode, final SpeechItem speechItem) {
            
            UtteranceProgressDispatcher utterenceProgress = null;
            if (queueMode == android.speech.tts.TextToSpeech.QUEUE_FLUSH) {
                stopForApp(speechItem.getCallerIdentity());
            } else if (queueMode == android.speech.tts.TextToSpeech.QUEUE_DESTROY) {
                stopAll();
            }

            Runnable runnable = new Runnable() {
                @Override
                public void run() {
                    if (isFlushed(speechItem)) {
                        speechItem.stop();
                    } else {
                        setCurrentSpeechItem(speechItem);
                        speechItem.play();
                        setCurrentSpeechItem(null);
                    }
                }
            };
            Message msg = Message.obtain(this, runnable);
            msg.obj = speechItem.getCallerIdentity();

            if (sendMessage(msg)) {
                return android.speech.tts.TextToSpeech.SUCCESS;
            } else {
                if (utterenceProgress != null) {
                    utterenceProgress.dispatchOnError(android.speech.tts.TextToSpeech.ERROR_SERVICE);
                }
                return android.speech.tts.TextToSpeech.ERROR;
            }
        }

先看前面的,TextToSpeech的speak接口的参数mode在这里体现了,如果是TextToSpeech.QUEUE_FLUSH,会调用stopForApp停掉其它tts的播放,这里就不把代码贴出来了。我们关注的是speechItem.play()

    public void play() {
        playImpl();
    }

playImpl,要看SynthesisSpeechItemV1下的实现了。

    @Override
    protected void playImpl() {
            AbstractSynthesisCallback synthesisCallback;
            synchronized (this) {
                mSynthesisCallback = createSynthesisCallback();
                synthesisCallback = mSynthesisCallback;
            }
            TextToSpeechService.this.onSynthesizeText(mSynthesisRequest, synthesisCallback);
            // Fix for case where client called .start() & .error(), but did not called .done()
            if (synthesisCallback.hasStarted() && !synthesisCallback.hasFinished()) {
                synthesisCallback.done();
            }
    }

哎呦,终于看到了我们熟悉的onSynthesizeText(SynthesisRequest request,SynthesisCallback callback)。reques就是封装的tts合成请求的参数,在SynthesisSpeechItemV1的构造方法中封装的,callback是调用createSynthesisCallback创建的。

    protected AbstractSynthesisCallback createSynthesisCallback() {
        return new PlaybackSynthesisCallback(getAudioParams(),
                    mAudioPlaybackHandler, this, getCallerIdentity(), mEventLogger, false);
    }
3.synthesizeToFileDescriptor

上面我们已经说了,synthesizeToFileDescriptor和speak的区别,就在于SpeechItemV1的子类不同。speak是SynthesisSpeechItemV1,synthesizeToFileDescriptor是SynthesisToFileOutputStreamSpeechItemV1。二者到了playImpl的区别,也主要在于callback的不同,其创建方法是:

    protected AbstractSynthesisCallback createSynthesisCallback() {
        return new FileSynthesisCallback(mFileOutputStream.getChannel(), this, false);
    }

到了这里,我们已经明白了,TextToSpeech的接口是如何通过TextToSpeechService来实现。接下来,我们该关心如何将TextToSpeechService的实现回调回去。

四、TextToSpeechService的实现如何回调回去

1.speak

在第二篇时,我们已经讲解过要通过调用callback的各个接口来回传结果。这里,就看一下PlaybackSynthesisCallback中的start、audioAvailable和done。
关注几个实例:UtteranceProgressDispatcher mDispatcher、AudioPlaybackHandler mAudioTrackHandler和SynthesisPlaybackQueueItem mItem,它们均是在TextToSpeech中实例化的。第一个关系到最终到UtteranceProgressListener的回调,后两个关系到音频的播放。
贴出来三个方法:

    public int start(int sampleRateInHz, int audioFormat, int channelCount) {
        SynthesisPlaybackQueueItem item = new SynthesisPlaybackQueueItem(
                    mAudioParams, sampleRateInHz, audioFormat, channelCount,
                    mDispatcher, mCallerIdentity, mLogger);
        mAudioTrackHandler.enqueue(item);
        mItem = item;
    }

    public int audioAvailable(byte[] buffer, int offset, int length) {
        item = mItem;
        final byte[] bufferCopy = new byte[length];
        item.put(bufferCopy);
    }

    public int done() {
        if (mStatusCode == android.speech.tts.TextToSpeech.SUCCESS) {
            mDispatcher.dispatchOnSuccess();
        } else {
            mDispatcher.dispatchOnError(mStatusCode);
        }

        item = mItem;
        if (statusCode == android.speech.tts.TextToSpeech.SUCCESS) {
            item.done();
        } else {
            item.stop(statusCode);
        }
    }

先说回调,可以在PlaybackSynthesisCallback的done中看到,调用了mDispatcher.dispatchOnSuccess,进一步看是调用了ITextToSpeechCallback.onSuccess,进一步掉用了UtteranceProgressListener的onDone。其它也是也是如此,不再细说。注意的是,onStart不是直接在PlaybackSynthesisCallback中,而是在SynthesisPlaybackQueueItem中,毕竟这时候才是开始播放。
再说播放,AudioPlaybackHandler 虽然不是继承自Handler,但其作用与其类似,是管理各个tts合成请求是的队列。SynthesisPlaybackQueueItem 继承自Runnable的子类,播放是在这完成的,它会创建一个BlockingAudioTrack,具体播放不再叙述。

2.synthesizeToFile

它的callback是FileSynthesisCallback。
大体与PlaybackSynthesisCallback类似,只是它不是播放,而是写入指定的文件。这里面需要关注的实例有:UtteranceProgressDispatcher mDispatcher和FileChannel mFileChannel,后者就是写文件的。
贴出来三个方法:

    public int start(int sampleRateInHz, int audioFormat, int channelCount) {
        mDispatcher.dispatchOnStart();
        fileChannel.write(ByteBuffer.allocate(WAV_HEADER_LENGTH));
    }

    public int audioAvailable(byte[] buffer, int offset, int length) {
        fileChannel.write(ByteBuffer.wrap(buffer,  offset,  length));
    }

    public int done() {
       fileChannel.position(0);
        int dataLength = (int) (fileChannel.size() - WAV_HEADER_LENGTH);
        fileChannel.write(makeWavHeader(sampleRateInHz, audioFormat, channelCount, dataLength));
        mDispatcher.dispatchOnSuccess();
    }

需要注意的是done中的makeWavHeader,它是写入文件头信息。

OK,Android speech包源码剖析就讲到这里。至此,Android Tts系列就基本完成了,虽然还有一些细节没有讲到,比如Locale语言、设置默认引擎,但主体思路算是差不多了。
在这个过程中,一是对Android Tts的来龙去脉有了比较充分的认识;二是Android speech包的架构设计思想,甭管具体的Tts引擎是啥,你都得按照我的规范来(集成Service、实现接口),这样,都可以通过TextToSpeech的接口来调用。



  • 2017-01-16 15:16:24

    Javascript模块化编程(二):AMD规范

    AMD是"Asynchronous Module Definition"的缩写,意思就是"异步模块定义"。它采用异步方式加载模块,模块的加载不影响它后面语句的运行。所有依赖这个模块的语句,都定义在一个回调函数中,等到加载完成之后,这个回调函数才会运行。

  • 2017-01-16 15:19:24

    RequireJS 入门指南

    如今最常用的JavaScript库之一是RequireJS。最近我参与的每个项目,都用到了RequireJS,或者是我向它们推荐了增加RequireJS。在这篇文章中,我将描述RequireJS是什么,以及它的一些基础场景。

  • 2017-01-16 15:22:30

    CommonJS规范

    CommonJS模块规范。 根据这个规范,每个文件就是一个模块,有自己的作用域。在一个文件里面定义的变量、函数、类,都是私有的,对其他文件不可见。

  • 2017-01-17 15:42:03

    vue-cli 发布(译)

    当我们真正开发一个应用的时候,我们不可避免的会用到一大堆的工具,模块化、预处理器、热模块加载、代码校验和测试。这些工具对于一个需要长期维护的大型应用是必须的,但是项目初始化将会是让人痛苦的事情。这就是为什么我们做了 vue-cli 。

  • 2017-01-19 00:45:56

    nodejs之process进程

    虽然node对操作系统做了很多抽象的工作,但是你还是可以直接和他交互,比如和系统中已经存在的进程进行交互,创建工作子进程。node是一个用于事件循环的线程,但是你可以在这个事件循环之外创建其他的进程(线程)参与工作。