- 博客(20)
- 资源 (1)
- 收藏
- 关注
原创 echarts学习总结(基础版)
一个echarts入门的基本操作 1:引入echarts.js文件 <script src="lib/echarts.min.js"></script> 2:准备一个呈现图表的盒子 <div style="width: 600px;height: 400px"></div> 3:初始化echarts实例对象 var mCharts = echarts.init(document.querySelector('div')) 4:准备配
2022-05-30 17:46:53
493
原创 visual studio basic
前端 用户名:<asp:TextBox ID=“txtName” runat=“server”></asp:TextBox> 密码:<asp:TextBox ID=“txtPwd” runat=“server”></asp:TextBox> <asp:Button ID=“btnOK” runat=“server” Text=“Button” OnClick=“Button1_Click” /> <asp:RadioButtonList ID
2022-05-23 15:02:35
174
原创 .NET 数据库配置链接
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录一、使用步骤1.引入命名2.配置config3.链接操作总结 一、使用步骤 1.引入命名 代码如下(示例): using System.Data.SqlClient; using System.Configuration; using System.Data; 2.配置config 代码如下(示例): <connectionStrings> <add name="StudentCnnString" .
2022-05-07 09:57:29
1027
原创 2021-04-14
大家一定要好好使用GitHub,大佬太多太多了,我光是看着就可以感觉到一起完善一段代码的快乐。 今天在看崔老师爬头条. 有地方看不懂,打算先运行,改改代码,试着理解,贴到我的pycharm里运行,没有报错,但文件没出来,csdn了半天,也不知道哪里的问题,后来就去github那里看了一下,原来是接口变了,接下来我往评论区一滑,woc,原来有这么多好朋友,瞬间就有一种找到家的感觉,很多问题,也可以检验自己的能力,我是大渣渣。 ...
2021-04-14 21:20:05
83
原创 2021-04-13
Ajax,全称为 Asynchronous JavaScript and XML,即异步的 JavaScript 和 XML。它不是一门编程语言,而是利用 JavaScript 在保证页面不被刷新、页面链接不改变的情况下与服务器交换数据并更新部分网页的技术。 from urllib.parse import urlencode import requests base_url = 'https://m.weibo.cn/api/container/getIndex?' headers = {
2021-04-13 22:29:57
87
原创 2021-04-12
其实原先配置过python环境,用的是anaconda3自动配的,就设了一下环境变量,就好了,后来又下了最新的python3.9,又配置了一遍,然后我丢anaconda3的是python3.7 而又有了python3.9现在,就想着把3.9导进去。 在这个传送门: link.里有具体方法 不过直接在anaconda官网升级也行。 今天看了这些东西,有一些今天上数据库原理课学到的知识,嘎嘎嘎 这是比较主要的几种, 还是应用起来才能真正掌握 ...
2021-04-12 22:37:29
94
原创 2021-04-11
在爬取了想要的数据,以什么方式保存呢? 文件存储形式多种多样,比如可以保存成 TXT 纯文本形式,也可以保存为 JSON 格式、CSV 格式等,今天就来了解一下他们。 1. TXT file = open('explore.txt', 'a', encoding='utf-8') file.write('\n'.join([question, author, answer])) file.write('\n' + '=' * 50 + '\n') file.close()
2021-04-11 22:39:26
93
原创 2021-04-09
cao,兄弟们,我有点学不进去了,你们快骂我。 今天只看了beautifulsoup,和pyquery,前几天在百度那个小白入门就见过了,更加了解了用python提取信息的整个具体原理和步骤。 我真的是最近不知道怎么了,皮的很,有压力,但就是使不上劲,我吐了。 兄弟们,成长路上的导师和陪伴你的人真的太重要了,物质上的丰富远远不及精神富足快乐。 现在真的很难受,逼着自己看完代码,背完单词,我真的不知道该找谁说话了。 ...
2021-04-09 22:55:54
70
原创 2021-04-08
今天学的比较少,被生活中的一些事情乱了思绪, 今天学习了xpath运算符,原本想跟着崔神学的,后来感觉有点晦涩,就直接在w3c上学了,感觉菜鸟教程也不错。 学了这么点东西,说多也不多,说少也不少,感觉到很多技术之间的相关性,让我明白学校教的东西并不是啥用都没。 总感觉自己现在有点急功近利了,技术不到位,基础不扎实,老想取得成绩,我是大渣渣。 今天无意间看到了如何拥有技术领导力这篇文章 如何拥有技术领导力. 这是一位70后程序员大哥,其中很多观点让我肃然起敬。 明白了大学的课程 C语言 编程范式 算法和数
2021-04-08 22:42:08
178
3
原创 2021-04-07
今天是爬猫眼电影,我们要提取出猫眼电影 TOP100 的电影名称、时间、评分、图片等信息,提取的站点 URL 为 http://maoyan.com/board/4,提取的结果会以文件形式保存下来。 就是用了基本的request和正则表达式来爬,思路超级简单。 确定了要爬的站点的信息后, 1.用request.get()抓url,写成一个方法 2.然后用正则表达式筛选信息,存入字典,结构化一下信息,又是一个方法 3.通过 JSON 库的 dumps() 方法实现字典的序列化,调用 write_to_json
2021-04-07 21:51:05
86
原创 2021-04-06
了解一下urlib库 它是 Python 内置的 HTTP 请求库,也就是说不需要额外安装即可使用。它包含如下 4 个模块。 request:它是最基本的 HTTP 请求模块,可以用来模拟发送请求。就像在浏览器里输入网址然后回车一样,只需要给库方法传入 URL 以及额外的参数,就可以模拟实现这个过程了。 error:异常处理模块,如果出现请求错误,我们可以捕获这些异常,然后进行重试或其他操作以保证程序不会意外终止。 parse:一个工具模块,提供了许多 URL 处理方法,比如拆分、解析、合并等。 robot
2021-04-06 21:27:52
106
原创 2021-04-05
嘿嘿嘿,清明节假期过完了,又要开心地学习python了。 梳理一下今天学到了啥。 爬虫是啥? 爬虫就是获取网页并提取和保存信息的自动化程序。 复习了一下网页基础。 网页可以分为三大部分 ——HTML、CSS 和 JavaScript。如果把网页比作一个人的话,HTML 相当于骨架,JavaScript 相当于肌肉,CSS 相当于皮肤,三者结合起来才能形成一个完善的网页。 这一段写的真不错,哈哈哈哈。 session(会话)与cookies 常见误区:在谈论会话机制的时候,常常听到这样一种误解 “只要关闭浏览
2021-04-05 23:07:59
80
原创 2021-04-01
终于终于安完了,但还是有个小问题。 具体看图 用gem装redis-dunp的时候报错,然呃我实在是看不懂这个error,求助大佬解决 她下面显示了一堆当前路径,是路径错误还是怎么样,我csdn,度娘了一圈都没有,呕---- 下面是给爬虫最终准备的环境。 我要开始搞事情了,嘿嘿嘿嘿 ...
2021-04-01 13:47:37
142
原创 2021-03-30
配置爬虫环境配置了四个小时,还没配完, 呕~ 崔大神的python3爬虫教程,今天安了这么多东西,之前有学长帮我搞好一点环境,不过自己动起手来,还是感觉和python更亲切了,原来有这么多好东西,等着我去搞事情,哈哈哈哈哈哈。 胜利就在前方 ...
2021-03-30 20:16:54
78
原创 2021-03-29
感觉这几天的课更像是了解百度做出的模型软件。 今天是EasyDL EasyDL是百度大脑面向企业开发者推出的AI开发平台,提供智能标注、模型训练、服务部署等全流程功能。内置丰富的预训练模型,支持公有云/私有化/设备端等灵活部署方式。EasyDL面向不同人群提供经典版、专业版、零售版三款产品,已在工业、零售、制造、医疗等领域落地。 呃,确实用起来挺简单的,几乎没什么门槛。 Step1 创建模型:选择任务类型,确定模型名称,描述模型功能 Step2 准备数据:上传数据集,并根据任务类型对数据进行在线标注 Ste
2021-03-29 22:18:24
96
原创 2021-03-28
今天的学习总算有深度学习内味了。 先贴一张图百度大哥属实牛皮,PaddleHub里已经有了好多用百亿级大数据训练出来的预训练模型,这就省下了蓝框框里的内容,只需要在PaddleHub里找到适合自己情况的预训练模型进行简单的微调,引入数据集,干就完了。 感觉自己的学习力好垃圾,先简单介绍一下如何使用PaddleHub吧。 PaddleHub官网链接: 这里. 运行环境可以是百度自己的ai studio,也可以是python 感觉我只有python能看懂,哈哈哈哈。 先导入paddlehub的模型,导入要用的库
2021-03-28 23:39:52
175
原创 2021-03-27
今天的任务是把昨天爬到的数据以图的形式展现出来,方便观察。 主要是利用matplotlib,pandas,numpy库来进行操作。 给大家百度给这三个库的教学链接,百度讲的挺简洁,如果有不懂的地方可以csdn,菜鸟教程 教学链接 百度给的第一个方法可以不用pandas, 先把保存数据的json文件导入,然后筛选信息,给它存到列表里,然后用matplotlib里的bar给他把图画出来。看看代码吧 对了,注意给matplotlib的字体改成中文,原字体是英文。 import matplotlib.pyplot
2021-03-27 22:53:20
102
原创 百度python七天学习日记
python 小99 def table(): #在这里写下您的乘法口诀表代码吧! for j in range(1,10): for i in range(1,j+1): print('%d*%d=%d'%(i,j,i*j),end='\t') print() if __name__ == '__main__': table() 查找特定文件 遍历”Day1-homework”目录下文件; 找到文..
2021-03-25 21:10:33
125
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人