我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Java离线中文语音文字识别功能怎么实现

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Java离线中文语音文字识别功能怎么实现

这篇文章主要讲解了“Java离线中文语音文字识别功能怎么实现”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Java离线中文语音文字识别功能怎么实现”吧!

1、pom文件如下:

<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">    <modelVersion>4.0.0</modelVersion>    <parent>        <groupId>org.springframework.boot</groupId>        <artifactId>spring-boot-starter-parent</artifactId>        <version>2.5.4</version>        <relativePath/> <!-- lookup parent from repository -->    </parent>    <groupId>com.example</groupId>    <artifactId>voice</artifactId>    <version>0.0.1-SNAPSHOT</version>    <name>voice-ai</name>    <description>Demo project for Spring Boot</description>    <properties>        <java.version>1.8</java.version>    </properties>    <repositories>        <repository>            <id>com.alphacephei</id>            <name>vosk</name>            <url>https://alphacephei.com/maven/</url>        </repository>    </repositories>    <dependencies>        <dependency>            <groupId>org.springframework.boot</groupId>            <artifactId>spring-boot-starter-web</artifactId>        </dependency>        <dependency>            <groupId>org.springframework.boot</groupId>            <artifactId>spring-boot-starter-test</artifactId>            <scope>test</scope>        </dependency>        <dependency>            <groupId>net.java.dev.jna</groupId>            <artifactId>jna</artifactId>            <version>5.7.0</version>        </dependency>        <dependency>            <groupId>com.alphacephei</groupId>            <artifactId>vosk</artifactId>            <version>0.3.30</version>        </dependency>        <dependency>            <groupId>org.projectlombok</groupId>            <artifactId>lombok</artifactId>            <optional>true</optional>        </dependency>        <dependency>            <groupId>com.alibaba</groupId>            <artifactId>fastjson</artifactId>            <version>1.2.8</version>        </dependency>    </dependencies>    <build>        <plugins>            <plugin>                <groupId>org.springframework.boot</groupId>                <artifactId>spring-boot-maven-plugin</artifactId>            </plugin>        </plugins>    </build></project>

特别说明一下,vosk的包在常见的maven仓库里面是没有的,所以需要指定下载地址。

2、工程结构:

Java离线中文语音文字识别功能怎么实现

3、语音识别工具类

public class VoiceUtil {    @Value("${leenleda.vosk.model}")    private String VOSKMODELPATH;    public String getWord(String filePath) throws IOException, UnsupportedAudioFileException {        Assert.isTrue(StringUtils.hasLength(VOSKMODELPATH), "无效的VOS模块!");        byte[] bytes = Files.readAllBytes(Paths.get(filePath));        // 转换为16KHZ        reSamplingAndSave(bytes, filePath);        File f = new File(filePath);        RandomAccessFile rdf = null;        rdf = new RandomAccessFile(f, "r");        log.info("声音尺寸:{}", toInt(read(rdf, 4, 4)));        log.info("音频格式:{}", toShort(read(rdf, 20, 2)));        short track=toShort(read(rdf, 22, 2));        log.info("1 单声道 2 双声道: {}", track);        log.info("采样率、音频采样级别 16000 = 16KHz: {}", toInt(read(rdf, 24, 4)));        log.info("每秒波形的数据量:{}", toShort(read(rdf, 22, 2)));        log.info("采样帧的大小:{}", toShort(read(rdf, 32, 2)));        log.info("采样位数:{}", toShort(read(rdf, 34, 2)));        rdf.close();        LibVosk.setLogLevel(LogLevel.WARNINGS);        try (Model model = new Model(VOSKMODELPATH);             InputStream ais = AudioSystem.getAudioInputStream(new BufferedInputStream(new FileInputStream(filePath)));             // 采样率为音频采样率的声道倍数             Recognizer recognizer = new Recognizer(model, 16000*track)) {            int nbytes;            byte[] b = new byte[4096];            int i = 0;            while ((nbytes = ais.read(b)) >= 0) {                i += 1;                if (recognizer.acceptWaveForm(b, nbytes)) {//                    System.out.println(recognizer.getResult());                } else {//                    System.out.println(recognizer.getPartialResult());                }            }            String result = recognizer.getFinalResult();            log.info("识别结果:{}", result);            if (StringUtils.hasLength(result)) {                JSONObject jsonObject = JSON.parseObject(result);                return jsonObject.getString("text").replace(" ", "");            }            return "";        }    }    public static int toInt(byte[] b) {        return (((b[3] & 0xff) << 24) + ((b[2] & 0xff) << 16) + ((b[1] & 0xff) << 8) + ((b[0] & 0xff) << 0));    }    public static short toShort(byte[] b) {        return (short) ((b[1] << 8) + (b[0] << 0));    }    public static byte[] read(RandomAccessFile rdf, int pos, int length) throws IOException {        rdf.seek(pos);        byte result[] = new byte[length];        for (int i = 0; i < length; i++) {            result[i] = rdf.readByte();        }        return result;    }    public static void reSamplingAndSave(byte[] data, String path) throws IOException, UnsupportedAudioFileException {        WaveFileReader reader = new WaveFileReader();        AudioInputStream audioIn = reader.getAudioInputStream(new ByteArrayInputStream(data));        AudioFormat class="lazy" data-srcFormat = audioIn.getFormat();        int targetSampleRate = 16000;        AudioFormat dstFormat = new AudioFormat(class="lazy" data-srcFormat.getEncoding(),                targetSampleRate,                class="lazy" data-srcFormat.getSampleSizeInBits(),                class="lazy" data-srcFormat.getChannels(),                class="lazy" data-srcFormat.getFrameSize(),                class="lazy" data-srcFormat.getFrameRate(),                class="lazy" data-srcFormat.isBigEndian());        AudioInputStream convertedIn = AudioSystem.getAudioInputStream(dstFormat, audioIn);        File file = new File(path);        WaveFileWriter writer = new WaveFileWriter();        writer.write(convertedIn, AudioFileFormat.Type.WAVE, file);    }}

有几点需要说明一下,官方demo里面对采集率是写死了的,为16000。这是以16KHz来算的,所以我把所有拿到的音频都转成了16KHz。还有采集率的设置,需要设置为声道数的倍数。

4、前端交互

@RestControllerpublic class VoiceAiController {    @Autowired    VoiceUtil voiceUtil;    @PostMapping("/getWord")    public String getWord(MultipartFile file) {        String path = "G:\\leenleda\\application\\voice-ai\\" + new Date().getTime() + ".wav";        File localFile = new File(path);        try {            file.transferTo(localFile); //把上传的文件保存至本地            System.out.println(file.getOriginalFilename() + " 上传成功");            // 上传成功,开始解析            String text = voiceUtil.getWord(path);            localFile.delete();            return text;        } catch (IOException | UnsupportedAudioFileException e) {            e.printStackTrace();            localFile.delete();            return "上传失败";        }    }}

5、前端页面

<!DOCTYPE html><html xmlns="http://www.w3.org/1999/xhtml"><head>    <meta http-equiv="Content-Type" content="text/html; charset=utf-8" />    <title>声音转换</title></head><body>    <div>        <audio controls autoplay></audio>        <input id="start" type="button" value="录音" />        <input id="stop" type="button" value="停止" />        <input id="play" type="button" value="播放" />        <input id="upload" type="button" value="提交" />        <div id="text">        </div>    </div>    <script class="lazy" data-src="http://libs.baidu.com/jquery/2.1.4/jquery.min.js"></script>    <script type="text/javascript" class="lazy" data-src="HZRecorder.js"></script>    <script>        var recorder;        var audio = document.querySelector('audio');        $("#start").click(function () {            HZRecorder.get(function (rec) {                recorder = rec;                recorder.start();            });        })        $("#stop").click(function () {            recorder.stop();        })        $("#play").click(function () {            recorder.play(audio);        })        $("#upload").click(function () {            recorder.upload("/admin/getWord", function (state, e) {                switch (state) {                    case 'uploading':                        //var percentComplete = Math.round(e.loaded * 100 / e.total) + '%';                        break;                    case 'ok':                        //alert(e.target.responseText);                        // alert("上传成功");                        break;                    case 'error':                        alert("上传失败");                        break;                    case 'cancel':                        alert("上传被取消");                        break;                }            });        })    </script></body></html>
(function (window) {    //兼容    window.URL = window.URL || window.webkitURL;    navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia;    var HZRecorder = function (stream, config) {        config = config || {};        config.sampleBits = 16;      //采样数位 8, 16        config.sampleRate = 16000;   //采样率(1/6 44100)        var context = new AudioContext();        var audioInput = context.createMediaStreamSource(stream);        var recorder = context.createScriptProcessor(4096, 1, 1);        var audioData = {            size: 0          //录音文件长度            , buffer: []     //录音缓存            , inputSampleRate: context.sampleRate    //输入采样率            , inputSampleBits: 16       //输入采样数位 8, 16            , outputSampleRate: config.sampleRate    //输出采样率            , oututSampleBits: config.sampleBits       //输出采样数位 8, 16            , input: function (data) {                this.buffer.push(new Float32Array(data));                this.size += data.length;            }            , compress: function () { //合并压缩                //合并                var data = new Float32Array(this.size);                var offset = 0;                for (var i = 0; i < this.buffer.length; i++) {                    data.set(this.buffer[i], offset);                    offset += this.buffer[i].length;                }                //压缩                var compression = parseInt(this.inputSampleRate / this.outputSampleRate);                var length = data.length / compression;                var result = new Float32Array(length);                var index = 0, j = 0;                while (index < length) {                    result[index] = data[j];                    j += compression;                    index++;                }                return result;            }            , encodeWAV: function () {                var sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate);                var sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits);                var bytes = this.compress();                var dataLength = bytes.length * (sampleBits / 8);                var buffer = new ArrayBuffer(44 + dataLength);                var data = new DataView(buffer);                var channelCount = 1;//单声道                var offset = 0;                var writeString = function (str) {                    for (var i = 0; i < str.length; i++) {                        data.setUint8(offset + i, str.charCodeAt(i));                    }                }                // 资源交换文件标识符                 writeString('RIFF'); offset += 4;                // 下个地址开始到文件尾总字节数,即文件大小-8                 data.setUint32(offset, 36 + dataLength, true); offset += 4;                // WAV文件标志                writeString('WAVE'); offset += 4;                // 波形格式标志                 writeString('fmt '); offset += 4;                // 过滤字节,一般为 0x10 = 16                 data.setUint32(offset, 16, true); offset += 4;                // 格式类别 (PCM形式采样数据)                 data.setUint16(offset, 1, true); offset += 2;                // 通道数                 data.setUint16(offset, channelCount, true); offset += 2;                // 采样率,每秒样本数,表示每个通道的播放速度                 data.setUint32(offset, sampleRate, true); offset += 4;                // 波形数据传输率 (每秒平均字节数) 单声道×每秒数据位数×每样本数据位/8                 data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;                // 快数据调整数 采样一次占用字节数 单声道×每样本的数据位数/8                 data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;                // 每样本数据位数                 data.setUint16(offset, sampleBits, true); offset += 2;                // 数据标识符                 writeString('data'); offset += 4;                // 采样数据总数,即数据总大小-44                 data.setUint32(offset, dataLength, true); offset += 4;                // 写入采样数据                 if (sampleBits === 8) {                    for (var i = 0; i < bytes.length; i++, offset++) {                        var s = Math.max(-1, Math.min(1, bytes[i]));                        var val = s < 0 ? s * 0x8000 : s * 0x7FFF;                        val = parseInt(255 / (65535 / (val + 32768)));                        data.setInt8(offset, val, true);                    }                } else {                    for (var i = 0; i < bytes.length; i++, offset += 2) {                        var s = Math.max(-1, Math.min(1, bytes[i]));                        data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true);                    }                }                return new Blob([data], { type: 'audio/wav' });            }        };        //开始录音        this.start = function () {            audioInput.connect(recorder);            recorder.connect(context.destination);        }        //停止        this.stop = function () {            recorder.disconnect();        }        //获取音频文件        this.getBlob = function () {            this.stop();            return audioData.encodeWAV();        }        //回放        this.play = function (audio) {            audio.class="lazy" data-src = window.URL.createObjectURL(this.getBlob());        }        //上传        this.upload = function (url, callback) {            var fd = new FormData();            fd.append("file", this.getBlob());            var xhr = new XMLHttpRequest();            if (callback) {                xhr.upload.addEventListener("progress", function (e) {                    callback('uploading', e);                }, false);                xhr.addEventListener("load", function (e) {                    callback('ok', e);                }, false);                xhr.addEventListener("error", function (e) {                    callback('error', e);                }, false);                xhr.addEventListener("abort", function (e) {                    callback('cancel', e);                }, false);            }            xhr.open("POST", url);            xhr.send(fd);            xhr.onreadystatechange = function () {                console.log("语音识别结果:"+xhr.responseText)                $("#text").append('<h3>'+xhr.responseText+'</h3>');            }        }        //音频采集        recorder.onaudioprocess = function (e) {            audioData.input(e.inputBuffer.getChannelData(0));            //record(e.inputBuffer.getChannelData(0));        }    };    //抛出异常    HZRecorder.throwError = function (message) {        alert(message);        throw new function () { this.toString = function () { return message; } }    }    //是否支持录音    HZRecorder.canRecording = (navigator.getUserMedia != null);    //获取录音机    HZRecorder.get = function (callback, config) {        if (callback) {            if (navigator.getUserMedia) {                navigator.getUserMedia(                    { audio: true } //只启用音频                    , function (stream) {                        var rec = new HZRecorder(stream, config);                        callback(rec);                    }                    , function (error) {                        switch (error.code || error.name) {                            case 'PERMISSION_DENIED':                            case 'PermissionDeniedError':                                HZRecorder.throwError('用户拒绝提供信息。');                                break;                            case 'NOT_SUPPORTED_ERROR':                            case 'NotSupportedError':                                HZRecorder.throwError('浏览器不支持硬件设备。');                                break;                            case 'MANDATORY_UNSATISFIED_ERROR':                            case 'MandatoryUnsatisfiedError':                                HZRecorder.throwError('无法发现指定的硬件设备。');                                break;                            default:                                HZRecorder.throwError('无法打开麦克风。异常信息:' + (error.code || error.name));                                break;                        }                    });            } else {                HZRecorder.throwErr('当前浏览器不支持录音功能。'); return;            }        }    }    window.HZRecorder = HZRecorder;})(window);

6、运行效果

Java离线中文语音文字识别功能怎么实现

感谢各位的阅读,以上就是“Java离线中文语音文字识别功能怎么实现”的内容了,经过本文的学习后,相信大家对Java离线中文语音文字识别功能怎么实现这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Java离线中文语音文字识别功能怎么实现

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Java离线中文语音文字识别功能怎么实现

这篇文章主要讲解了“Java离线中文语音文字识别功能怎么实现”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Java离线中文语音文字识别功能怎么实现”吧!1、pom文件如下:
2023-07-02

android语音识别功能怎么实现

要实现Android平台的语音识别功能,可以使用Android提供的语音识别API,具体步骤如下:在AndroidManifest.xml文件中添加必要的权限:在布局文件中添加一个按钮来触发语音识别:在Activity中初始化语音识别引擎,
2023-10-22

Unity怎么实现OCR文字识别功能

今天就跟大家聊聊有关Unity怎么实现OCR文字识别功能,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。首先登陆百度开发者中心,搜索文字识别服务:创建一个应用,获取AppID、APIK
2023-06-22

Java中怎么通过调用jna实现语音识别功能

Java中怎么通过调用jna实现语音识别功能,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。JNAjava调用.dll获取.so一般通过JNI,但是JNI的使用比较复杂,需要用C
2023-06-17

基于C#怎么实现语音识别功能

今天小编给大家分享一下基于C#怎么实现语音识别功能的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。在.NET4.0中,我可以借
2023-06-30

怎么用Python代码实现文字识别功能

今天小编给大家分享一下怎么用Python代码实现文字识别功能的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。1.环境和配置要求
2023-06-30

Android中怎么实现一个图片文字识别功能

Android中怎么实现一个图片文字识别功能,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1、添加依赖implementation com.rmtheis:tess-two
2023-06-20

Linux下怎么用python实现语音识别功能

这篇文章主要介绍“Linux下怎么用python实现语音识别功能”,在日常操作中,相信很多人在Linux下怎么用python实现语音识别功能问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Linux下怎么用py
2023-07-05

Python3.7 + Yolo3怎么实现识别语音播报功能

这篇文章将为大家详细讲解有关Python3.7 + Yolo3怎么实现识别语音播报功能,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。一、利用Python调用系统win10的文字转语音首先下载
2023-06-22

Python中怎么实现文字识别

这期内容当中小编将会给大家带来有关Python中怎么实现文字识别,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。环境和配置要求整体是用Python实现,所需要使用的第三方库包括aip、PIL、keyboar
2023-06-16

C#怎么实现文本转语音功能

这篇文章主要介绍“C#怎么实现文本转语音功能”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“C#怎么实现文本转语音功能”文章能帮助大家解决问题。这种方式的优点在于不会被浏览器限制,在js的文本转语音功
2023-06-29

怎么在Android中利用orc实现一个文字识别功能

这篇文章给大家介绍怎么在Android中利用orc实现一个文字识别功能,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。一、什么是orcorc是指利用光学字符识别(ORC全称:Optical Character Recog
2023-05-31

Java怎么实现文字转语音工具箱

本篇内容主要讲解“Java怎么实现文字转语音工具箱”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Java怎么实现文字转语音工具箱”吧!整合这里我们使用百度云的人工智能语音合成API,个人用户拥有
2023-06-03

java怎么使用tess4j进行图片文字识别功能

这篇文章主要介绍“java怎么使用tess4j进行图片文字识别功能”,在日常操作中,相信很多人在java怎么使用tess4j进行图片文字识别功能问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”java怎么使用t
2023-07-05

java图片文字提取功能怎么实现

要实现Java的图片文字提取功能,可以使用OCR(Optical Character Recognition,光学字符识别)技术。OCR可以识别图像中的文字,并将其转换为可编辑的文本。以下是一个简单的Java代码示例,使用Tesserac
2023-10-25

如何在java项目中利用ocr实现一个图片文字识别功能

这期内容当中小编将会给大家带来有关如何在java项目中利用ocr实现一个图片文字识别功能,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。最近在开发的时候需要识别图片中的一些文字,网上找了相关资料之后,发现g
2023-05-31

怎么用javascript实现中文转拼音的功能

随着中文在全球范围内的使用不断增加,将中文转换为拼音成为许多开发者所关注的重要问题。在 Javascript 中,我们可以使用第三方库或手写代码来完成中文转拼音的功能。本文将介绍两种基本的方法,帮助您更好地理解中文转拼音的过程。方法一:使用第三方库1. 引入第三方库在 Javascript 中,我们可以使用第三方的库来帮助我们实现中文转拼音的功能。其中比较流行的库是 Pinyi
2023-05-14

怎么用PHP实现拼音转中文的功能

本篇内容主要讲解“怎么用PHP实现拼音转中文的功能”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用PHP实现拼音转中文的功能”吧!一、获取中文拼音首字母在实现拼音转中文之前,我们需要先获取中
2023-07-05

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录