cralytalk8文字转语音转换文字软件失败怎么解决

iOS语音书写功能(语音转文本)
最近在项目开发中,需要将语音识别转换成文本的功能。研究了下科大讯飞,附上Demo分享给大家。
研发前先得做一些准备。
1、注册科大讯飞开发者帐号()
2、下载开发平台(、或,或其他)所需要的SDK(SDK包含:说明文档、SDK即iflyMSC.framework、Demo)
3、项目中添加SDK(添加时,先将SDK复制粘贴到项目文件,再通过addframe的方法添加到项目引用),及相关联的framework
添加方法:TARGETS-Build Phases-Link Binary With Libraries-&+&-Choose frameworks and libraries to add-add other,或选择对应的framework-add
4、使用时要添加对应的头文件
特别说明:
1、使用SDK关联的APPID存在于下载的Demo中,如果SDK有替换的话APPID应该跟着一起替换。
2、添加其他framework:
libc++.tbd
CoreGraphics.framework
QuartzCore.framework
AddressBook.framework
CoreLocation.framework
UIKit.framework
AudioToolbox.framework
Foundation.framework
SystemConfiguration.framework
AVFoundation.framework
CoreTelephoney.framework
3、Bitcode属性设置为NO(TARGETS-Build Settings-Build Options-Enable Bitcode-NO)
4、在使用前,务必在AppDelegate的方法中&
- (BOOL)application:(UIApplication*)application didFinishLaunchingWithOptions:(NSDictionary*)launchOptions {}&进行初始化操作。
5、需要有网络的情况下才能使用。
下载的科大讯飞SDK文件
Demo中的APPID
添加SDK,及添加关联framework
设置Bitcode属性为 NO
语音转文件实现代码
//导入头文件
#import&iflyMSC.framework/Headers/IFlyMSC.h&
#import&iflyMSC.framework/Headers/IFlySpeechUtility.h&
#import&iflyMSC/IFlySpeechConstant.h&
#pragmamark-初始化参数类
/**************************************************************************/
@interfaceIATConfig:NSObject
+(IATConfig*)sharedI
+(NSString*)
+(NSString*)
+(NSString*)
+(NSString*)
+(NSString*)
+(NSString*)lowSampleR
+(NSString*)highSampleR
+(NSString*)isD
+(NSString*)noD
以下参数,需要通过iFlySpeechRecgonizer进行设置
@property(nonatomic,strong)NSString*speechT
@property(nonatomic,strong)NSString*vadE
@property(nonatomic,strong)NSString*vadB
@property(nonatomic,strong)NSString*
@property(nonatomic,strong)NSString*
@property(nonatomic,strong)NSString*
@property(nonatomic,strong)NSString*sampleR
以下参数无需设置不必关
@property(nonatomic,assign)BOOLhaveV
@property(nonatomic,strong)NSArray*accentI
@property(nonatomic,strong)NSArray*accentNickN
/**************************************************************************/
#pragmamark-语音听写类
@interfaceVoiceConversion:NSObject
///启动初始化语音程序
+(void)VoiceI
///开始录音
-(void)voiceStart:(void(^)(BOOLisStart))startListening
speechBegin:(void(^)(void))begin
speechEnd:(void(^)(void))end
speechError:(void(^)(BOOLisSuccess))error
speechResult:(void(^)(NSString*text))result
speechVolume:(void(^)(intvolume))
///取消录音
-(void)voiceC
///停止录音
-(void)voiceS
#import&VoiceConversion.h&
#pragmamark-初始化参数类
/**************************************************************************/
staticNSString*constPUTONGHUA=@&mandarin&;
staticNSString*constYUEYU=@&cantonese&;
staticNSString*constHENANHUA=@&henanese&;
staticNSString*constENGLISH=@&en_us&;
staticNSString*constCHINESE=@&zh_cn&;
@implementationIATConfig
self=[superinit];
[selfdefaultSetting];
+(IATConfig*)sharedInstance
staticIATConfig*instance=
staticdispatch_once_
dispatch_once(&predict,^{
instance=[[IATConfigalloc]init];
-(void)defaultSetting
_speechTimeout=@&30000&;
_vadEos=@&3000&;
_vadBos=@&3000&;
_dot=@&1&;
_sampleRate=@&16000&;
_language=CHINESE;
_accent=PUTONGHUA;
_haveView=NO;//默认是不dai界面的
_accentNickName=[[NSArrayalloc]initWithObjects:@&粤语&,@&普通话&,@&河南话&,@&英文&,nil];
+(NSString*)mandarin
returnPUTONGHUA;
+(NSString*)cantonese
returnYUEYU;
+(NSString*)henanese
returnHENANHUA;
+(NSString*)chinese
returnCHINESE;
+(NSString*)english
returnENGLISH;
+(NSString*)lowSampleRate
return@&8000&;
+(NSString*)highSampleRate
return@&16000&;
+(NSString*)isDot
return@&1&;
+(NSString*)noDot
return@&0&;
/**************************************************************************/
#pragmamark-语音听写类
staticNSString*constVoiceAPPID=@&&;
staticNSString*constVoiceTimeOut=@&20000&;
@interfaceVoiceConversion()
@property(nonatomic,strong)NSMutableString*resultT
@property(nonatomic,strong)IFlySpeechRecognizer*iFlySpeechR
@property(nonatomic,copy)void(^beginSpeech)(void);
@property(nonatomic,copy)void(^endSpeech)(void);
@property(nonatomic,copy)void(^errorSpeech)(BOOLisSuccess);
@property(nonatomic,copy)void(^resultSpeech)(NSString*text);
@property(nonatomic,copy)void(^volumeSpeech)(intvolume);
@implementationVoiceConversion
#pragmamark初始化------------
///启动初始化语音程序
+(void)VoiceInitialize
//设置sdk的log等级,log保存在下面设置的工作路径中
[IFlySettingsetLogFile:LVL_ALL];
//打开输出在console的log开关
[IFlySettingshowLogcat:YES];
//设置sdk的工作路径
NSArray*paths=NSSearchPathForDirectoriesInDomains(NSCachesDirectory,NSUserDomainMask,YES);
NSString*cachePath=[pathsobjectAtIndex:0];
[IFlySettingsetLogFilePath:cachePath];
//Appid是应用的身份信息,具有唯一性,初始化时必须要传入Appid。初始化是一个异步过程,可放在App启动时执行初始化,具体代码可以参照Demo的MSCAppDelegate.m。未初始化时使用服务,一般会返回错误码10111.
NSString*initString=[[NSStringalloc]initWithFormat:@&appid=%@&,VoiceAPPID];
[IFlySpeechUtilitycreateUtility:initString];
#pragmamark实例化------------
-(void)dealloc
[selfvoiceCancel];
-(NSMutableString*)resultText
if(!_resultText)
_resultText=[[NSMutableStringalloc]init];
return_resultT
-(IFlySpeechRecognizer*)iFlySpeechRecognizer
if(_iFlySpeechRecognizer==nil)
_iFlySpeechRecognizer=[IFlySpeechRecognizersharedInstance];
[_iFlySpeechRecognizersetParameter:@&&forKey:[IFlySpeechConstantPARAMS]];
//设置听写模式
[_iFlySpeechRecognizersetParameter:@&iat&forKey:[IFlySpeechConstantIFLY_DOMAIN]];
return_iFlySpeechR
-(void)initializeVoice
self.iFlySpeechRecognizer.delegate=
IATConfig*instance=[IATConfigsharedInstance];
//设置最长录音时间
[self.iFlySpeechRecognizersetParameter:instance.speechTimeoutforKey:[IFlySpeechConstantSPEECH_TIMEOUT]];
//设置后端点
[self.iFlySpeechRecognizersetParameter:instance.vadEosforKey:[IFlySpeechConstantVAD_EOS]];
//设置前端点
[self.iFlySpeechRecognizersetParameter:instance.vadBosforKey:[IFlySpeechConstantVAD_BOS]];
//网络等待时间
[self.iFlySpeechRecognizersetParameter:@&20000&forKey:[IFlySpeechConstantNET_TIMEOUT]];
//设置采样率,推荐使用16K
[self.iFlySpeechRecognizersetParameter:instance.sampleRateforKey:[IFlySpeechConstantSAMPLE_RATE]];
if([instance.languageisEqualToString:[IATConfigchinese]])
//设置语言
[self.iFlySpeechRecognizersetParameter:instance.languageforKey:[IFlySpeechConstantLANGUAGE]];
//设置方言
[self.iFlySpeechRecognizersetParameter:instance.accentforKey:[IFlySpeechConstantACCENT]];
elseif([instance.languageisEqualToString:[IATConfigenglish]])
[self.iFlySpeechRecognizersetParameter:instance.languageforKey:[IFlySpeechConstantLANGUAGE]];
//设置是否返回标点符号
[self.iFlySpeechRecognizersetParameter:instance.dotforKey:[IFlySpeechConstantASR_PTT]];
#pragmamark语音听写方法------------
///开始录音
-(void)voiceStart:(void(^)(BOOLisStart))startListening
speechBegin:(void(^)(void))begin
speechEnd:(void(^)(void))end
speechError:(void(^)(BOOLisSuccess))error
speechResult:(void(^)(NSString*text))result
speechVolume:(void(^)(intvolume))volume
[self.resultTextsetString:@&&];
//回调设置
self.beginSpeech=[begincopy];
self.endSpeech=[endcopy];
self.errorSpeech=[errorcopy];
self.resultSpeech=[resultcopy];
self.volumeSpeech=[volumecopy];
//初始化设置
[selfinitializeVoice];
[self.iFlySpeechRecognizercancel];
//设置音频来源为麦克风
[self.iFlySpeechRecognizersetParameter:IFLY_AUDIO_SOURCE_MICforKey:@&audio_source&];
//设置听写结果格式为json
[self.iFlySpeechRecognizersetParameter:@&json&forKey:[IFlySpeechConstantRESULT_TYPE]];
//保存录音文件,保存在sdk工作路径中,如未设置工作路径,则默认保存在library/cache下
[self.iFlySpeechRecognizersetParameter:@&asr.pcm&forKey:[IFlySpeechConstantASR_AUDIO_PATH]];
BOOLisStart=[self.iFlySpeechRecognizerstartListening];
if(startListening)
//如果开始录音失败,可能是上次请求未结束,暂不支持多路并发
startListening(isStart);
///取消听写
-(void)voiceCancel
[self.iFlySpeechRecognizercancel];
///停止录音
-(void)voiceStop
[self.iFlySpeechRecognizerstopListening];
#pragmamarkIFlySpeechRecognizerDelegate------------
识别结果返回代理
@param:results识别结果
@param:isLast表示是否最后一次结果
-(void)onResults:(NSArray*)resultsisLast:(BOOL)isLast
NSMutableString*resultString=[[NSMutableStringalloc]init];
NSDictionary*dic=results[0];
for(NSString*keyindic)
[resultStringappendFormat:@&%@&,key];
NSString*resultFromJson=[[selfclass]stringFromJson:resultString];
NSString*resultTextTemp=[NSStringstringWithFormat:@&%@%@&,self.resultText,resultFromJson];
[self.resultTextsetString:resultTextTemp];
if(isLast)
if(self.resultSpeech)
//去掉最后一个句号
NSRangerange=[self.resultTextrangeOfString:@&。&options:NSBackwardsSearch];
if(range.location!=NSNotFound)
resultTextTemp=[self.resultTextsubstringToIndex:range.location];
[self.resultTextsetString:resultTextTemp];
self.resultSpeech(self.resultText);
[selfvoiceCancel];
识别会话结束返回代理
@paramerror错误码,error.errorCode=0表示正常结束,非0表示发生错误。
-(void)onError:(IFlySpeechError*)error
if(self.errorSpeech)
BOOLisSuccess=(0==error.errorCode);
self.errorSpeech(isSuccess);
停止录音回调
-(void)onEndOfSpeech
if(self.endSpeech)
self.endSpeech();
开始识别回调
-(void)onBeginOfSpeech
if(self.beginSpeech)
self.beginSpeech();
音量回调函数volume0-30
-(void)onVolumeChanged:(int)volume
if(self.volumeSpeech)
self.volumeSpeech(volume);
#pragmamark解析方法------------
/**************************************************************************/
解析命令词返回的结果
+(NSString*)stringFromAsr:(NSString*)
NSMutableString*resultString=[[NSMutableStringalloc]init];
NSString*inputString=
NSArray*array=[paramscomponentsSeparatedByString:@&\n&];
for(intindex=0;index<array.index&#43;&#43;) {</array.index&#43;&#43;)
NSString*line=[arrayobjectAtIndex:index];
NSRangeidRange=[linerangeOfString:@&id=&];
NSRangenameRange=[linerangeOfString:@&name=&];
NSRangeconfidenceRange=[linerangeOfString:@&confidence=&];
NSRangegrammarRange=[linerangeOfString:@&grammar=&];
NSRangeinputRange=[linerangeOfString:@&input=&];
if(confidenceRange.length==0||grammarRange.length==0||inputRange.length==0)
//checknomatch
if(idRange.length!=0)
NSUIntegeridPosX=idRange.location+idRange.
NSUIntegeridLength=nameRange.location-idPosX;
range=NSMakeRange(idPosX,idLength);
NSString*subString=[linesubstringWithRange:range];
NSCharacterSet*subSet=[NSCharacterSetwhitespaceAndNewlineCharacterSet];
NSString*idValue=[subStringstringByTrimmingCharactersInSet:subSet];
if([idValueisEqualToString:@&nomatch&])
return@&&;
//GetConfidenceValue
NSUIntegerconfidencePosX=confidenceRange.location+confidenceRange.
NSUIntegerconfidenceLength=grammarRange.location-confidencePosX;
range=NSMakeRange(confidencePosX,confidenceLength);
NSString*score=[linesubstringWithRange:range];
NSUIntegerinputStringPosX=inputRange.location+inputRange.
NSUIntegerinputStringLength=line.length-inputStringPosX;
range=NSMakeRange(inputStringPosX,inputStringLength);
inputString=[linesubstringWithRange:range];
[resultStringappendFormat:@&%@置信度%@\n&,inputString,score];
returnresultS
解析听写json格式的数据
params例如:
{&sn&:1,&ls&:true,&bg&:0,&ed&:0,&ws&:[{&bg&:0,&cw&:[{&w&:&白日&,&sc&:0}]},{&bg&:0,&cw&:[{&w&:&依山&,&sc&:0}]},{&bg&:0,&cw&:[{&w&:&尽&,&sc&:0}]},{&bg&:0,&cw&:[{&w&:&黄河入海流&,&sc&:0}]},{&bg&:0,&cw&:[{&w&:&。&,&sc&:0}]}]}
+(NSString*)stringFromJson:(NSString*)params
if(params==NULL)
NSMutableString*tempStr=[[NSMutableStringalloc]init];
//返回的格式必须为utf8的,否则发生未知错误
NSData*dataJSON=[paramsdataUsingEncoding:NSUTF8StringEncoding];
NSDictionary*resultDic=[NSJSONSerializationJSONObjectWithData:dataJSONoptions:kNilOptionserror:nil];
if(resultDic!=nil)
NSArray*wordArray=[resultDicobjectForKey:@&ws&];
for(inti=0;i&[wordArraycount];i++)
NSDictionary*wsDic=[wordArrayobjectAtIndex:i];
NSArray*cwArray=[wsDicobjectForKey:@&cw&];
for(intj=0;j&[cwArraycount];j++)
NSDictionary*wDic=[cwArrayobjectAtIndex:j];
NSString*str=[wDicobjectForKey:@&w&];
[tempStrappendString:str];
returntempS
解析语法识别返回的结果
+(NSString*)stringFromABNFJson:(NSString*)params
if(params==NULL)
NSMutableString*tempStr=[[NSMutableStringalloc]init];
NSData*dataJSON=[paramsdataUsingEncoding:NSUTF8StringEncoding];
NSDictionary*resultDic=[NSJSONSerializationJSONObjectWithData:dataJSONoptions:kNilOptionserror:nil];
NSArray*wordArray=[resultDicobjectForKey:@&ws&];
for(inti=0;i&[wordArraycount];i++)
NSDictionary*wsDic=[wordArrayobjectAtIndex:i];
NSArray*cwArray=[wsDicobjectForKey:@&cw&];
for(intj=0;j&[cwArraycount];j++)
NSDictionary*wDic=[cwArrayobjectAtIndex:j];
NSString*str=[wDicobjectForKey:@&w&];
NSString*score=[wDicobjectForKey:@&sc&];
[tempStrappendString:str];
[tempStrappendFormat:@&置信度:%@&,score];
[tempStrappendString:@&\n&];
returntempS
/**************************************************************************/
初始化方法
///启动初始化语音程序
+(void)VoiceInitialize
//设置sdk的log等级,log保存在下面设置的工作路径中
[IFlySettingsetLogFile:LVL_ALL];
//打开输出在console的log开关
[IFlySettingshowLogcat:YES];
//设置sdk的工作路径
NSArray*paths=NSSearchPathForDirectoriesInDomains(NSCachesDirectory,NSUserDomainMask,YES);
NSString*cachePath=[pathsobjectAtIndex:0];
[IFlySettingsetLogFilePath:cachePath];
//Appid是应用的身份信息,具有唯一性,初始化时必须要传入Appid。初始化是一个异步过程,可放在App启动时执行初始化,具体代码可以参照Demo的MSCAppDelegate.m。未初始化时使用服务,一般会返回错误码10111.
NSString*initString=[[NSStringalloc]initWithFormat:@&appid=%@&,VoiceAPPID];
[IFlySpeechUtilitycreateUtility:initString];
初始化调用
-(BOOL)application:(UIApplication*)applicationdidFinishLaunchingWithOptions:(NSDictionary*)launchOptions
//Overridepointforcustomizationafterapplicationlaunch.
[VoiceConversionVoiceInitialize];
returnYES;
#import&VoiceConversion.h&
@interfaceViewController()
@property(nonatomic,strong)VoiceConversion*voiceC
@property(nonatomic,strong)UILabel*messageL
@implementationViewController
-(void)viewDidLoad{
[superviewDidLoad];
//Doanyadditionalsetupafterloadingtheview,typicallyfromanib.
UIBarButtonItem*startItem=[[UIBarButtonItemalloc]initWithTitle:@&start&style:UIBarButtonItemStyleDonetarget:selfaction:@selector(startItemClick:)];
UIBarButtonItem*stopItem=[[UIBarButtonItemalloc]initWithTitle:@&stop&style:UIBarButtonItemStyleDonetarget:selfaction:@selector(stopItemClick:)];
UIBarButtonItem*cancelItem=[[UIBarButtonItemalloc]initWithTitle:@&cancel&style:UIBarButtonItemStyleDonetarget:selfaction:@selector(cancelItemClick:)];
self.navigationItem.rightBarButtonItems=@[startItem,stopItem,cancelItem];
self.title=@&科大讯飞语音&;
[selfsetUI];
-(void)didReceiveMemoryWarning{
[superdidReceiveMemoryWarning];
//Dispofanyresourcesthatcanberecreated.
#pragmamark-视图
-(void)setUI
if([selfrespondsToSelector:@selector(setEdgesForExtendedLayout:)])
[selfsetEdgesForExtendedLayout:UIRectEdgeNone];
self.messageLabel=[[UILabelalloc]initWithFrame:CGRectMake(10.0,10.0,CGRectGetWidth(self.view.bounds)-10.0*2,40.0)];
[self.viewaddSubview:self.messageLabel];
self.messageLabel.backgroundColor=[UIColorcolorWithWhite:0.5alpha:0.3];
self.messageLabel.textAlignment=NSTextAlignmentC
#pragmamark-响应
-(void)startItemClick:(UIBarButtonItem*)item
ViewController__weak*weakSelf=
[self.voiceConversionvoiceStart:^(BOOLisStart){
NSLog(@&1start&);
if(isStart)
weakSelf.messageLabel.text=@&正在录音&;
weakSelf.messageLabel.text=@&启动识别服务失败,请稍后重试&;
}speechBegin:^{
NSLog(@&2begin&);
}speechEnd:^{
NSLog(@&3end&);
}speechError:^(BOOLisSuccess){
NSLog(@&4error&);
}speechResult:^(NSString*text){
NSLog(@&5result&);
weakSelf.messageLabel.text=
}speechVolume:^(intvolume){
NSLog(@&6volume&);
NSString*volumeString=[NSStringstringWithFormat:@&音量:%d&,volume];
weakSelf.messageLabel.text=volumeS
-(void)stopItemClick:(UIBarButtonItem*)item
[self.voiceConversionvoiceStop];
self.messageLabel.text=@&停止录音&;
-(void)cancelItemClick:(UIBarButtonItem*)item
[self.voiceConversionvoiceCancel];
self.messageLabel.text=@&取消识别&;
#pragmamark-getter
-(VoiceConversion*)voiceConversion
if(!_voiceConversion)
_voiceConversion=[[VoiceConversionalloc]init];
return_voiceC酷比魔方TALK 7X参数
声明:仅供参考,以当地实际销售信息为准
主频:1.3GHz
系统内存:
存储容量:
电池容量:锂电池,2700毫安
续航时间:具体时间视使用环境而定
平板电脑主机&x1
保修政策:
全国联保,享受三包服务;质保期为1年
客服电话:
具体内容:
售后服务由品牌厂商提供,支持全国联保,可享有三包服务。如出现质量问题或故障,可查询最近的维修点,由厂商的售后解决;也可凭厂商维修中心或特约维修点的质量检测证明,享受7日内退货,15日内换货。超过15天又在质保期内,可享受免费保修等三包服务。详细内容请致电客服或登录官网查询。
环境光线感应
环境光线感应
也称亮度感应器,根据手持设备目前所处的光线亮度,自动调节手持设备屏幕亮度,给使用者带来最佳的视觉效果。
2013年12月
Android4.2
处理器架构
处理器型号
MTK8312 ARM Cortex-A7
处理器主频
处理器核心
Flash 闪盘
支持Micro SD(TF)卡,最大支持32GB
屏幕分辨率
屏幕像素密度
电容式触摸屏,多点式触摸屏
联通3G(WCDMA),移动2G(GSM)
支持802.11b/g/n无线协议
支持,蓝牙4.0模块
支持通话功能
智能重力感应,,
内置扬声器
内置麦克风
双摄像头(前置:30万像素,后置:200万像素)
支持播放720P视频
支持MP1,MP2,WMA,WAV,OGG,M4A,AAC,AC3,FLAC格式
支持MPEG2,MPEG4,AVC1,WMV3,VP8格式
支持JPG,BMP,PNG格式
支持TXT等格式
1×Micro-USB2.0
3.5mm耳机接口
电源接口,存储卡接口,Micro-SIM卡插槽,SIM卡插槽
开关按键,音量按键
锂电池,2700毫安
具体时间视使用环境而定
电源适配器
100V-240V 自适应交流电源供应器
191.2×106.5×9.9mm
平板电脑附件
平板电脑主机&x1
全国联保,享受三包服务
售后服务由品牌厂商提供,支持全国联保,可享有三包服务。如出现质量问题或故障,可查询最近的维修点,由厂商的售后解决;也可凭厂商维修中心或特约维修点的质量检测证明,享受7日内退货,15日内换货。超过15天又在质保期内,可享受免费保修等三包服务。详细内容请致电客服或登录官网查询。
>> PART:DetailVer3/Part/Detail/AdZPlusGoods >>> -->微信文字切换不了语音怎么回事_百度知道
微信文字切换不了语音怎么回事
微信文字切换不了语音怎么回事
我有更好的答案
原因:微信开启语音的权限没有设为“允许”。解决方法:1.打开手机的设置——全部设置2.权限管理3.找到微信4.录音权限设为开启。微信语音发不了解决方法查看网络。有的时候,网络延迟或故障就会导致微信语音发不出去,所以建议大家不要着急,看看手机的网络情况,过一会再试试。查看一下自己的手机设置,有的时候手机的安全卫士会自动禁止微信的某些功能(录音之类的),找到后手动更改下就可以了。重启手机。很多朋友都切身体会过,一些软件突然不能用,重启一下手机就能解决。微信也是如此,大家可以试一试。卸载微信,重新安装。微信发不了语音也有可能是因为软件出现了问题,大家可以试一试卸载掉微信,重新安装一遍,看看问题能否解决。升级微信。如果重新安装了还是不行,不妨试一试升级软件,可能是一些兼容性的问题,试一试安装最新版本的微信,看看问题能否解决。删除以前的微信语音,大家可以试试删除一些微信语音,再发送微信语音看能否成功。
采纳率:100%
解决步骤如下:1,确保已正常开启“语音输入”功能:打开“微信”程序,点击界面右上角的“菜单”按钮,从其下拉列表中选择“设置”项。2,接着在打开的窗口中依次点击“通用”-》“功能”项进入。3,然后在打开的“功能”窗口中,找到“语音输入”并点击进入。4,接着在打开的“功能设置”界面中,点击“启动该功能”按钮以便启用“语音输入”功能。5,然后进入好友聊天界面,点击“+”按钮打开扩展面板,从中选择“语音输入”按钮。6,接下来在确保手机音量被调到足够大情况下,对着手机说普通话。7,此时就会发现语音输入功能正常工作,并将语音自动转换成文字。点击“发送”按钮就可以将消息发送出去。8,由于语音信息被送往服务器进行识别然后生成文字,因此建议在WiFi环境下使用“语音输入”功能。
为您推荐:
其他类似问题
&#xe675;换一换
回答问题,赢新手礼包&#xe6b9;
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。QQ语音无法转文字,告诉你解决方法_搜外问答
语音已经成为社交软件中交流的一个重要功能,而QQ是大家最常用的社交软件。但是对于很多白领来说,在办公室是无法收听语音的,这时候大家首先想到的就是语音转换文字功能了。但问题又出现了,有些朋友反应QQ语音无法转文字。
针对QQ语音无法转换文字的问题,群里大家都说出了自己的看法,比如手机问题,比如QQ不是最新版本。守护袁昆对此第一感觉也是QQ不是最新版本,但仔细想想又不对,原因到底是什么呢?怎样解决。
一直跟朋友们提起的就是:百度是最好的老师,我们遇到的问题都不是问题,因为有人遇到并解决了。其实对于腾讯这样的互联网公司都很在意用户体验,所以客服的服务是非常到位的,于是我也找到了答案。
腾讯客服:
目前只有iPhone/Android4.6及以上版本手机QQ、电脑端QQ软件SP4及以上版本支持该功能;如语音信息转文字功能需使用普通话。如非普通话、普通话模糊不清,会无法转成正确的文字。
支持语音转文字功能(收发双方只要有一方是QQ会员/超级会员即可),在聊天窗口接收到语音时,可点击语音消息旁边的“文”字,即可实现语音转换成文字的功能,让你在不方便听取语音消息的时候也可以随时了解消息内容。通过腾讯客服的介绍,我们知道主要原因并不是手机或者电脑QQ的版本,相信很少有朋友用这么老版本的手机或者电脑QQ吧。语音转文字功能最关键的因素是:收发双方只要有一方是QQ会员/超级会员即可,大家明白了吗?
越来越多的朋友在研究QQ空间、研究QQ群,如果你遇到了QQ使用的相关问题,可以相互交流!
作者公告牌
守护袁昆专注企业网络营销策划、SEO优化指导、微电商运营、软文营销、网络营销培训。微博:@守护袁昆,QQ微信:。
管理文章:
我就是超级会员。。。还是不能
QQ语音无法转文字
微信自媒体实战案例
从零开始玩转微信自媒体
一周发布文章最多的作者
24小时获得「赞」最多的人
45 回复(55 赞)
16 回复(6 赞)
18 回复(5 赞)
(4 个回答)
(16 个回答)
(16 个回答)
(14 个回答)
(11 个回答)
(9 个回答)
(2 小时前)
(7 小时前)
(8 小时前)
(8 小时前)
(9 小时前)

我要回帖

更多关于 语音识别成文字 的文章

 

随机推荐