我的编程空间,编程开发者的网络收藏夹
学习永远不晚

使用Java怎么对微信公众号批量获取

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

使用Java怎么对微信公众号批量获取

今天就跟大家聊聊有关使用Java怎么对微信公众号批量获取,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

首先为代理服务器安装证书,anyproxy默认不解析https链接,安装证书后就可以解析了,在cmd执行anyproxy --root 就会安装证书,之后还得在模拟器也下载这个证书。

然后输入anyproxy -i 命令 打开代理服务。(记得加上参数!)

 使用Java怎么对微信公众号批量获取

记住这个ip和端口,之后安卓模拟器的代理就用这个。现在用浏览器打开网页:http://localhost:8002/  这是anyproxy的网页界面,用于显示http传输数据。

使用Java怎么对微信公众号批量获取

点击上面红框框里面的菜单,会出一个二维码,用安卓模拟器扫码识别,模拟器(手机)就会下载证书了,安装上就好了。

现在准备为模拟器设置代理,代理方式设置为手动,代理ip为运行anyproxy机器的ip,端口是8001

使用Java怎么对微信公众号批量获取

到这里准备工作基本完成,在模拟器上打开微信随便打开一个公众号的文章,就能从你刚打开的web界面中看到anyproxy抓取到的数据:

使用Java怎么对微信公众号批量获取

上面红框内就是微信文章的链接,点击进去可以看到具体的数据。如果response body里面什么都没有可能证书安装有问题。

如果上面都走通了,就可以接着往下走了。

这里我们靠代理服务抓微信数据,但总不能抓取一条数据就自己操作一下微信,那样还不如直接人工复制。所以我们需要微信客户端自己跳转页面。这时就可以使用anyproxy拦截微信服务器返回的数据,往里面注入页面跳转代码,再把加工的数据返回给模拟器实现微信客户端自动跳转。

打开anyproxy中的一个叫rule_default.js的js文件,windows下该文件在:C:\Users\Administrator\AppData\Roaming\npm\node_modules\anyproxy\lib

在文件里面有个叫replaceServerResDataAsync: function(req,res,serverResData,callback)的方法,这个方法就是负责对anyproxy拿到的数据进行各种操作。一开始应该只有callback(serverResData);这条语句的意思是直接返回服务器响应数据给客户端。直接删掉这条语句,替换成大牛写的如下代码。这里的代码我并没有做什么改动,里面的注释也解释的给非常清楚,直接按逻辑看懂就行,问题不大。

 replaceServerResDataAsync: function(req,res,serverResData,callback){     if(/mp\/getmasssendmsg/i.test(req.url)){//当链接地址为公众号历史消息页面时(第一种页面形式)       //console.log("开始第一种页面爬取");       if(serverResData.toString() !== ""){         6         try {//防止报错退出程序          var reg = /msgList = (.*?);/;//定义历史消息正则匹配规则          var ret = reg.exec(serverResData.toString());//转换变量为string          HttpPost(ret[1],req.url,"/InternetSpider/getData/showBiz");//这个函数是后文定义的,将匹配到的历史消息json发送到自己的服务器          var http = require('http');           http.get('http://xxx/getWxHis', function(res) {//这个地址是自己服务器上的一个程序,目的是为了获取到下一个链接地址,将地址放在一个js脚本中,将页面自动跳转到下一页。后文将介绍getWxHis.php的原理。             res.on('data', function(chunk){             callback(chunk+serverResData);//将返回的代码插入到历史消息页面中,并返回显示出来             })           });         }catch(e){//如果上面的正则没有匹配到,那么这个页面内容可能是公众号历史消息页面向下翻动的第二页,因为历史消息第一页是html格式的,第二页就是json格式的。         //console.log("开始第一种页面爬取向下翻形式");           try {             var json = JSON.parse(serverResData.toString());             if (json.general_msg_list != []) {             HttpPost(json.general_msg_list,req.url,"/xxx/showBiz");//这个函数和上面的一样是后文定义的,将第二页历史消息的json发送到自己的服务器             }           }catch(e){            console.log(e);//错误捕捉           }           callback(serverResData);//直接返回第二页json内容         }       }       //console.log("开始第一种页面爬取 结束");     }else if(/mp\/profile_ext\?action=home/i.test(req.url)){//当链接地址为公众号历史消息页面时(第二种页面形式)       try {         var reg = /var msgList = \'(.*?)\';/;//定义历史消息正则匹配规则(和第一种页面形式的正则不同)         var ret = reg.exec(serverResData.toString());//转换变量为string         HttpPost(ret[1],req.url,"/xxx/showBiz");//这个函数是后文定义的,将匹配到的历史消息json发送到自己的服务器         var http = require('http');         http.get('xxx/getWxHis', function(res) {//这个地址是自己服务器上的一个程序,目的是为了获取到下一个链接地址,将地址放在一个js脚本中,将页面自动跳转到下一页。后文将介绍getWxHis.php的原理。             res.on('data', function(chunk){             callback(chunk+serverResData);//将返回的代码插入到历史消息页面中,并返回显示出来             })           });       }catch(e){         //console.log(e);         callback(serverResData);       }     }else if(/mp\/profile_ext\?action=getmsg/i.test(req.url)){//第二种页面表现形式的向下翻页后的json       try {         var json = JSON.parse(serverResData.toString());         if (json.general_msg_list != []) {           HttpPost(json.general_msg_list,req.url,"/xxx/showBiz");//这个函数和上面的一样是后文定义的,将第二页历史消息的json发送到自己的服务器         }       }catch(e){         console.log(e);       }       callback(serverResData);     }else if(/mp\/getappmsgext/i.test(req.url)){//当链接地址为公众号文章阅读量和点赞量时       try {         HttpPost(serverResData,req.url,"/xxx/getMsgExt");//函数是后文定义的,功能是将文章阅读量点赞量的json发送到服务器       }catch(e){        }       callback(serverResData);     }else if(/s\?__biz/i.test(req.url) || /mp\/rumor/i.test(req.url)){//当链接地址为公众号文章时(rumor这个地址是公众号文章被辟谣了)       try {         var http = require('http');         http.get('http://xxx/getWxPost', function(res) {//这个地址是自己服务器上的另一个程序,目的是为了获取到下一个链接地址,将地址放在一个js脚本中,将页面自动跳转到下一页。后文将介绍getWxPost.php的原理。           res.on('data', function(chunk){             callback(chunk+serverResData);           })         });       }catch(e){         callback(serverResData);       }     }else{       callback(serverResData);     }     //callback(serverResData);   },

这里简单解释一下,微信公众号的历史消息页链接有两种形式:一种以 mp.weixin.qq.com/mp/getmasssendmsg 开头,另一种是 mp.weixin.qq.com/mp/profile_ext 开头。历史页是可以向下翻的,如果向下翻将触发js事件发送请求得到json数据(下一页内容)。还有公众号文章链接,以及文章的阅读量和点赞量的链接(返回的是json数据),这几种链接的形式是固定的可以通过逻辑判断来区分。这里有个问题就是历史页如果需要全部爬取到该怎么做到。我的思路是通过js去模拟鼠标向下滑动,从而触发提交加载下一部分列表的请求。或者直接利用anyproxy分析下滑加载的请求,直接向微信服务器发生这个请求。但都有一个问题就是如何判断已经没有余下数据了。我是爬取最新数据,暂时没这个需求,可能以后要。如果有需求的可以尝试一下。

下图是上文中的HttpPost方法内容。

 function HttpPost(str,url,path) {//将json发送到服务器,str为json内容,url为历史消息页面地址,path是接收程序的路径和文件名     console.log("开始执行转发操作");     try{     var http = require('http');     var data = {         str: encodeURIComponent(str),         url: encodeURIComponent(url)     };     data = require('querystring').stringify(data);     var options = {         method: "POST",         host: "xxx",//注意没有http://,这是服务器的域名。         port: xxx,         path: path,//接收程序的路径和文件名         headers: {             'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',             "Content-Length": data.length         }     };     var req = http.request(options, function (res) {         res.setEncoding('utf8');         res.on('data', function (chunk) {             console.log('BODY: ' + chunk);         });     });     req.on('error', function (e) {         console.log('problem with request: ' + e.message);     });          req.write(data);     req.end();     }catch(e){         console.log("错误信息:"+e);     }     console.log("转发操作结束"); }

做完以上工作,接下来就是按自己业务来完成服务端代码了,我们的服务用于接收代理服务器发过来的数据进行处理,进行持久化操作,同时向代理服务器发送需要注入到微信的js代码。针对代理服务器拦截到的几种不同链接发来的数据,我们就需要设计相应的方法来处理这些数据。从anyproxy处理微信数据的js方法replaceServerResDataAsync: function(req,res,serverResData,callback)中,我们可以知道至少需要对公众号历史页数据、公众号文章页数据、公众号文章点赞量和阅读量数据设计三种方法来处理。同时我们还需要设计一个方法来生成爬取任务,完成公众号的轮寻爬取。如果需要爬取更多数据,可以从anyproxy抓取到的链接中分析出更多需要的数据,然后往replaceServerResDataAsync: function(req,res,serverResData,callback)中添加判定,拦截到需要的数据发送到自己的服务器,相应的在服务端添加方法处理该类数据就行了。

我是用java写的服务端代码。

处理公众号历史页数据方法:

public void getMsgJson(String str ,String url) throws UnsupportedEncodingException {    // TODO Auto-generated method stub    String biz = "";    Map<String,String> queryStrs = HttpUrlParser.parseUrl(url);    if(queryStrs != null){      biz = queryStrs.get("__biz");      biz = biz + "==";    }        List<WeiXin> results = weiXinMapper.selectByBiz(biz);    if(results == null || results.size() == 0){      WeiXin weiXin = new WeiXin();      weiXin.setBiz(biz);      weiXin.setCollect(System.currentTimeMillis());      weiXinMapper.insert(weiXin);    }    //System.out.println(str);    //解析str变量    List<Object> lists = JsonPath.read(str, "['list']");    for(Object list : lists){      Object json = list;      int type = JsonPath.read(json, "['comm_msg_info']['type']");      if(type == 49){//type=49表示是图文消息        String content_url = JsonPath.read(json, "$.app_msg_ext_info.content_url");        content_url = content_url.replace("\\", "").replaceAll("amp;", "");//获得图文消息的链接地址        int is_multi = JsonPath.read(json, "$.app_msg_ext_info.is_multi");//是否是多图文消息        Integer datetime = JsonPath.read(json, "$.comm_msg_info.datetime");//图文消息发送时间                try{          if(content_url != null && !"".equals(content_url)){            TmpList tmpList = new TmpList();            tmpList.setContentUrl(content_url);            tmpListMapper.insertSelective(tmpList);          }        }catch(Exception e){          System.out.println("队列已存在,不插入!");        }                        List<Post> postList = postMapper.selectByContentUrl(content_url);        boolean contentUrlExist = false;        if(postList != null && postList.size() != 0){          contentUrlExist = true;        }                      if(!contentUrlExist){//'数据库post中不存在相同的$content_url'          Integer fileid = JsonPath.read(json, "$.app_msg_ext_info.fileid");//一个微信给的id          String title = JsonPath.read(json, "$.app_msg_ext_info.title");//文章标题          String title_encode = URLEncoder.encode(title, "utf-8");          String digest = JsonPath.read(json, "$.app_msg_ext_info.digest");//文章摘要          String source_url = JsonPath.read(json, "$.app_msg_ext_info.source_url");//阅读原文的链接          source_url = source_url.replace("\\", "");          String cover = JsonPath.read(json, "$.app_msg_ext_info.cover");//封面图片          cover = cover.replace("\\", "");          //          System.out.println("头条标题:"+title);//          System.out.println("微信ID:"+fileid);//          System.out.println("文章摘要:"+digest);//          System.out.println("阅读原文链接:"+source_url);//          System.out.println("封面图片地址:"+cover);                              Post post = new Post();          post.setBiz(biz);          post.setTitle(title);          post.setTitleEncode(title_encode);          post.setFieldId(fileid);          post.setDigest(digest);          post.setSourceUrl(source_url);          post.setCover(cover);          post.setIsTop(1);//标记一下是头条内容          post.setIsMulti(is_multi);          post.setDatetime(datetime);          post.setContentUrl(content_url);                    postMapper.insert(post);        }              if(is_multi == 1){//如果是多图文消息          List<Object> multiLists = JsonPath.read(json, "['app_msg_ext_info']['multi_app_msg_item_list']");          for(Object multiList : multiLists){            Object multiJson = multiList;                      content_url = JsonPath.read(multiJson, "['content_url']").toString().replace("\\", "").replaceAll("amp;", "");//图文消息链接地址                        contentUrlExist = false;            List<Post> posts = postMapper.selectByContentUrl(content_url);            if(posts != null && posts.size() != 0){              contentUrlExist = true;            }            if(!contentUrlExist){//'数据库中不存在相同的$content_url'                            if(content_url != null && !"".equals(content_url)){                TmpList tmpListT = new TmpList();                tmpListT.setContentUrl(content_url);                tmpListMapper.insertSelective(tmpListT);              }                            String title = JsonPath.read(multiJson, "$.title");              String title_encode = URLEncoder.encode(title, "utf-8");              Integer fileid = JsonPath.read(multiJson, "$.fileid");              String digest = JsonPath.read(multiJson, "$.digest");              String source_url = JsonPath.read(multiJson, "$.source_url");              source_url = source_url.replace("\\", "");              String cover = JsonPath.read(multiJson, "$.cover");              cover = cover.replace("\\", "");            //              System.out.println("标题:"+title);//              System.out.println("微信ID:"+fileid);//              System.out.println("文章摘要:"+digest);//              System.out.println("阅读原文链接:"+source_url);//              System.out.println("封面图片地址:"+cover);                            Post post = new Post();              post.setBiz(biz);              post.setTitle(title);              post.setTitleEncode(title_encode);              post.setFieldId(fileid);              post.setDigest(digest);              post.setSourceUrl(source_url);              post.setCover(cover);              post.setIsTop(0);//标记一下不是头条内容              post.setIsMulti(is_multi);              post.setDatetime(datetime);              post.setContentUrl(content_url);                            postMapper.insert(post);                          }          }        }            }        }  }

处理公众号文章页的方法:

public String getWxPost() {    // TODO Auto-generated method stub        tmpListMapper.deleteByLoad(1);    List<TmpList> queues = tmpListMapper.selectMany(5);    String url = "";    if(queues != null && queues.size() != 0 && queues.size() > 1){      TmpList queue = queues.get(0);      url = queue.getContentUrl();      queue.setIsload(1);      int result = tmpListMapper.updateByPrimaryKey(queue);      System.out.println("update result:"+result);    }else{      System.out.println("getpost queues is null?"+queues==null?null:queues.size());      WeiXin weiXin = weiXinMapper.selectOne();      String biz = weiXin.getBiz();      if((Math.random()>0.5?1:0) == 1){        url = "http://mp.weixin.qq.com/mp/getmasssendmsg?__biz=" + biz +             "#wechat_webview_type=1&wechat_redirect";//拼接公众号历史消息url地址(第一种页面形式)      }else{        url = "https://mp.weixin.qq.com/mp/profile_ext?action=home&__biz=" + biz +             "#wechat_redirect";//拼接公众号历史消息url地址(第二种页面形式)      }      url = "https://mp.weixin.qq.com/mp/profile_ext?action=home&__biz=" + biz +           "#wechat_redirect";//拼接公众号历史消息url地址(第二种页面形式)      //更新刚才提到的公众号表中的采集时间time字段为当前时间戳。      weiXin.setCollect(System.currentTimeMillis());      int result = weiXinMapper.updateByPrimaryKey(weiXin);      System.out.println("getPost weiXin updateResult:"+result);    }    int randomTime = new Random().nextInt(3) + 3;    String jsCode = "<script>setTimeout(function(){window.location.href='"+url+"';},"+randomTime*1000+");</script>";    return jsCode;      }

处理公众号点赞量和阅读量的方法:

public void getMsgExt(String str,String url) {    // TODO Auto-generated method stub    String biz = "";    String sn = "";    Map<String,String> queryStrs = HttpUrlParser.parseUrl(url);    if(queryStrs != null){      biz = queryStrs.get("__biz");      biz = biz + "==";      sn = queryStrs.get("sn");      sn = "%" + sn + "%";    }        Post post = postMapper.selectByBizAndSn(biz, sn);        if(post == null){      System.out.println("biz:"+biz);      System.out.println("sn:"+sn);      tmpListMapper.deleteByLoad(1);      return;    }    //    System.out.println("json数据:"+str);    Integer read_num;    Integer like_num;    try{      read_num = JsonPath.read(str, "['appmsgstat']['read_num']");//阅读量      like_num = JsonPath.read(str, "['appmsgstat']['like_num']");//点赞量    }catch(Exception e){      read_num = 123;//阅读量      like_num = 321;//点赞量      System.out.println("read_num:"+read_num);      System.out.println("like_num:"+like_num);      System.out.println(e.getMessage());    }                tmpListMapper.deleteBySn(sn);        //然后将阅读量和点赞量更新到文章表中。    post.setReadnum(read_num);    post.setLikenum(like_num);    postMapper.updateByPrimaryKey(post);      }

处理跳转向微信注入js的方法:

public String getWxHis() {    String url = "";    // TODO Auto-generated method stub        tmpListMapper.deleteByLoad(1);    TmpList queue = tmpListMapper.selectRandomOne();    System.out.println("queue is null?"+queue);    if(queue == null){//队列表为空            WeiXin weiXin = weiXinMapper.selectOne();            String biz = weiXin.getBiz();      url = "https://mp.weixin.qq.com/mp/profile_ext?action=home&__biz=" + biz +           "#wechat_redirect";//拼接公众号历史消息url地址(第二种页面形式)      //更新刚才提到的公众号表中的采集时间time字段为当前时间戳。      weiXin.setCollect(System.currentTimeMillis());      int result = weiXinMapper.updateByPrimaryKey(weiXin);      System.out.println("getHis weiXin updateResult:"+result);    }else{      //取得当前这一行的content_url字段      url = queue.getContentUrl();      //将load字段update为1      tmpListMapper.updateByContentUrl(url);    }    //将下一个将要跳转的$url变成js脚本,由anyproxy注入到微信页面中。    //echo "<script>setTimeout(function(){window.location.href='".$url."';},2000);</script>";    int randomTime = new Random().nextInt(3) + 3;    String jsCode = "<script>setTimeout(function(){window.location.href='"+url+"';},"+randomTime*1000+");</script>";    return jsCode;  }

以上就是对处理代理服务器拦截到的数据进行处理的程序。这里有一个需要注意的问题,程序会对数据库中的每个收录的公众号进行轮循访问,甚至是已经存储的文章也会再次访问,目的是为了一直更新文章的阅读数和点赞数。如果需要抓取大量的公众号建议对添加任务队列的代码进行修改,添加条件限制,否则公众号一多 轮循抓取重复数据将十分影响效率。

至此就将微信公众号的文章链接全部爬取到,而且这个链接是永久有效而且可以在浏览器打开的链接,接下来就是写爬虫程序从数据库中拿链接爬取文章内容等信息了。

我是用webmagic写的爬虫,轻量好用。

public class SpiderModel implements PageProcessor{    private static PostMapper postMapper;    private static List<Post> posts;    // 抓取网站的相关配置,包括编码、抓取间隔、重试次数等  private Site site = Site.me().setRetryTimes(3).setSleepTime(100);    public Site getSite() {    // TODO Auto-generated method stub    return this.site;  }    public void process(Page page) {    // TODO Auto-generated method stub    Post post = posts.remove(0);    String content = page.getHtml().xpath("//div[@id='js_content']").get();    //存在和谐文章 此处做判定如果有直接删除记录或设置表示位表示文章被和谐    if(content == null){      System.out.println("文章已和谐!");      //postMapper.deleteByPrimaryKey(post.getId());      return;    }    String contentSnap = content.replaceAll("data-class="lazy" data-src", "class="lazy" data-src").replaceAll("preview.html", "player.html");//快照    String contentTxt = HtmlToWord.stripHtml(content);//纯文本内容        Selectable metaContent = page.getHtml().xpath("//div[@id='meta_content']");    String pubTime = null;    String wxname = null;    String author = null;    if(metaContent != null){      pubTime = metaContent.xpath("//em[@id='post-date']").get();      if(pubTime != null){        pubTime = HtmlToWord.stripHtml(pubTime);//文章发布时间      }      wxname = metaContent.xpath("//a[@id='post-user']").get();      if(wxname != null){        wxname = HtmlToWord.stripHtml(wxname);//公众号名称      }      author = metaContent.xpath("//em[@class='rich_media_meta rich_media_meta_text' and @id!='post-date']").get();      if(author != null){        author = HtmlToWord.stripHtml(author);//文章作者      }    }    //    System.out.println("发布时间:"+pubTime);//    System.out.println("公众号名称:"+wxname);//    System.out.println("文章作者:"+author);        String title = post.getTitle().replaceAll("&nbsp;", "");//文章标题    String digest = post.getDigest();//文章摘要    int likeNum = post.getLikenum();//文章点赞数    int readNum = post.getReadnum();//文章阅读数    String contentUrl = post.getContentUrl();//文章链接        WechatInfoBean wechatBean = new WechatInfoBean();    wechatBean.setTitle(title);    wechatBean.setContent(contentTxt);//纯文本内容    wechatBean.setSourceCode(contentSnap);//快照    wechatBean.setLikeCount(likeNum);    wechatBean.setViewCount(readNum);    wechatBean.setAbstractText(digest);//摘要    wechatBean.setUrl(contentUrl);    wechatBean.setPublishTime(pubTime);    wechatBean.setSiteName(wxname);//站点名称 公众号名称    wechatBean.setAuthor(author);    wechatBean.setMediaType("微信公众号");//来源媒体类型        WechatStorage.saveWechatInfo(wechatBean);        //标示文章已经被爬取    post.setIsSpider(1);    postMapper.updateByPrimaryKey(post);      }      public static void startSpider(List<Post> inposts,PostMapper myPostMapper,String... urls){        long startTime, endTime;    startTime = System.currentTimeMillis();    postMapper = myPostMapper;    posts = inposts;        HttpClientDownloader httpClientDownloader = new HttpClientDownloader();        SpiderModel spiderModel = new SpiderModel();    Spider mySpider = Spider.create(spiderModel).addUrl(urls);    mySpider.setDownloader(httpClientDownloader);    try {      SpiderMonitor.instance().register(mySpider);      mySpider.thread(1).run();    } catch (JMException e) {      e.printStackTrace();    }        endTime = System.currentTimeMillis();    System.out.println("爬取时间" + ((endTime - startTime) / 1000) + "秒--");      }  }

其它的一些无关逻辑的存储数据代码就不贴了,这里我把代理服务器抓取到的数据存在了mysql,把自己的爬虫程序爬到的数据存储在了mongodb

下面是自己爬取到的公众号号的信息:

使用Java怎么对微信公众号批量获取

使用Java怎么对微信公众号批量获取

看完上述内容,你们对使用Java怎么对微信公众号批量获取有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注编程网行业资讯频道,感谢大家的支持。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

使用Java怎么对微信公众号批量获取

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

使用Java怎么对微信公众号批量获取

今天就跟大家聊聊有关使用Java怎么对微信公众号批量获取,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。首先为代理服务器安装证书,anyproxy默认不解析https链接,安装证书后就
2023-05-30

怎么用python自动获取微信公众号最新文章

本篇内容介绍了“怎么用python自动获取微信公众号最新文章”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!微信公众号获取思路常用的微信公众号
2023-07-02

微信公众号开发中使用Java如何实现获取用户的信息

微信公众号开发中使用Java如何实现获取用户的信息?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1、首先需要到微信网站去设置一下,我是直接用的微信测试号。        接
2023-05-31

微信公众平台开发使用Java如何实现获取token

微信公众平台开发使用Java如何实现获取token?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。(一)token的介绍引用:access_token是公众号的全局唯一票据,
2023-05-31

微信公众平台开发中使用Java如何实现获取用户的信息

本篇文章为大家展示了微信公众平台开发中使用Java如何实现获取用户的信息,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。(一)用户微信消息的获取实现在关注者与公众号产生消息交互后,公众号可获得关注者的
2023-05-31

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录