时间:2021-05-19
本文实例为大家分享了java后台发起get请求获取响应数据,供大家参考,具体内容如下
学习记录:
话不多说直接上代码:
package com.jl.chromeTest;import java.io.BufferedReader;import java.io.InputStreamReader;import java.net.HttpURLConnection;import java.net.URL;import java.net.URLConnection;import java.nio.charset.StandardCharsets;/** * get请求测试 * @author liujilong * @since 2019-7-18 10:26:49 */public class Test { @org.junit.Test public void test() throws Exception{ String result = get("http://"); System.out.println("result====="+result); } /** * get请求 * @param url * @return * @throws Exception */ public String get(String url) throws Exception { String content = null; URLConnection urlConnection = new URL(url).openConnection(); HttpURLConnection connection = (HttpURLConnection) urlConnection; connection.setRequestMethod("GET"); //连接 connection.connect(); //得到响应码 int responseCode = connection.getResponseCode(); if (responseCode == HttpURLConnection.HTTP_OK) { BufferedReader bufferedReader = new BufferedReader(new InputStreamReader (connection.getInputStream(), StandardCharsets.UTF_8)); StringBuilder bs = new StringBuilder(); String l; while ((l = bufferedReader.readLine()) != null) { bs.append(l).append("\n"); } content = bs.toString(); } return content; }}结果如图:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
1前言Python开发网络爬虫获取网页数据的基本流程为:发起请求通过URL向服务器发起request请求,请求可以包含额外的header信息。获取响应内容服务器
GET请求在koa中,GET请求获取请求数据request对象中的query方法和querystring方法,query方法返回的是格式化好的参数,querys
问题出现原因:1.ie下面只会建立一次ajax请求,将响应结果放在浏览器缓存里下次调用该ajax请求时从缓存里读取get方式时,获取数据,因发送参数和地址都一致
分页有两种方式:1.前台分页:ajax一次请求获取全部数据,适合少量数据(万条数据以下);$.ajax({type:"GET",url:"",//后台接口地址d
聚焦爬虫:爬取页面中指定的页面内容。编码流程:1.指定url2.发起请求3.获取响应数据4.数据解析5.持久化存储数据解析分类:1.bs42.正则3.xpath