看资料说谷歌的语音只支持英文的,这么一来,语音识别只能看第三方的sdk,查找一下,果然是有实现好了的demo,下面就实现步骤,进行一一推演,一个步骤少了都不行;
这里面需要说一下,只集成录音功能,其他暂不考虑;
1、注册科大讯飞,然后创建自己的应用,创建成果后,获取id(集成第三方sdk的一贯流程);
2、下载sdk,这里只选取“语音听写”功能,然后下载sdk,等待网页完成集成、下载;
看看自己的安装包,是不是和我一下
3、对下载的安装包进行解压,分别找到图中3个部分文件,并进行处理
1、在android studio工程视图中,在main文件下(java同级文件夹中),新建jniLibs文件夹,将1中的3个文件夹全都复制进去
2、Msc.java放在lib中,放入后,需要将其设置为依赖包
3、将assets文件夹放入到java同级文件夹中,和2的文件夹是同级的;这3步的效果图如下:(我这里只有1个jar包,1个abi文件夹是不影响的哦,你们全放都可以。)
4、准备工作结束后,就需要集成功能了
4.1权限:
// 动态权限,
Manifest.permission.READ_EXTERNAL_STORAGE,
Manifest.permission.WRITE_EXTERNAL_STORAGE,
Manifest.permission.RECORD_AUDIO,
// 在mainifast.xml权限我是全加上了
<!--连接网络权限,用于执行云端语音能力 -->
<uses-permission android:name="android.permission.INTERNET" />
<!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->
<uses-permission android:name="android.permission.RECORD_AUDIO" />
<!--读取网络信息状态 -->
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />
<!--获取当前wifi状态 -->
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE" />
<!--允许程序改变网络连接状态 -->
<uses-permission android:name="android.permission.CHANGE_NETWORK_STATE" />
<!--读取手机信息权限 -->
<uses-permission android:name="android.permission.READ_PHONE_STATE" />
<!--读取联系人权限,上传联系人需要用到此权限 -->
<uses-permission android:name="android.permission.READ_CONTACTS" />
<!--外存储写权限,构建语法需要用到此权限 -->
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<!--外存储读权限,构建语法需要用到此权限 -->
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" />
<!--配置权限,用来记录应用配置信息 -->
<uses-permission android:name="android.permission.WRITE_SETTINGS" />
<!--手机定位信息,用来为语义等功能提供定位,提供更精准的服务--> <!--定位信息是敏感信息,可通过Setting.setLocationEnable(false)关闭定位请求 -->
<uses-permission android:name="android.permission.ACCESS_FINE_LOCATION" />
4.2、初始化及调用
SpeechUtility.createUtility(this, SpeechConstant.APPID +"=xxxxxxx"); // 将“xxxxxxx”替换成您申请的 APPID
//在需要开始录音的地方进行设置就可以了。
public void initSpeech(final Context context) {
//1.创建RecognizerDialog对象
RecognizerDialog mDialog = new RecognizerDialog(context, null);
//2.设置accent、language等参数
mDialog.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
mDialog.setParameter(SpeechConstant.ACCENT, "mandarin");
//3.设置回调接口
mDialog.setListener(new RecognizerDialogListener() {
@Override
public void onResult(RecognizerResult recognizerResult, boolean isLast) {
if (!isLast) {
//解析语音
//解析完成的文字:result
String result = parseVoice(recognizerResult.getResultString());
}
}
@Override
public void onError(SpeechError speechError) {
}
});
//4.显示dialog,接收语音输入
mDialog.show();
}
/**
* 解析语音json
*/
public String parseVoice(String resultString) {
Gson gson = new Gson();
Voice voiceBean = gson.fromJson(resultString, Voice.class);
StringBuffer sb = new StringBuffer();
ArrayList<Voice.WSBean> ws = voiceBean.ws;
for (Voice.WSBean wsBean : ws) {
String word = wsBean.cw.get(0).w;
sb.append(word);
}
return sb.toString();
}
/**
* 语音对象封装
*/
public class Voice {
public ArrayList<WSBean> ws;
public class WSBean {
public ArrayList<CWBean> cw;
}
public class CWBean {
public String w;
}
//这里还有一个依赖需要添加:
implementation 'com.google.code.gson:gson:2.2.4'