你好,我是zhenguo 这是我的第486篇原创 最近汇总了平时常用到的9个很好的Python工具,它们能极大的提高我们的工作效率,安装它们,然后逐步熟练使用它们。若有用,可以收藏这篇文章。1Faker生成假数据 你若还在为生成名字、地址、IP地址而发愁,试试Faker库吧。 它是专业生成假数据的神器,但生成的数据看起来又如此不假。 基本用法如下所示:fromfakerimportFakerfakeFaker(localezhCN)fake。name()谭柳fake。address()江西省关岭县新城赵街Y座630814fake。text()怎么作者地区。投资报告企业内容责任发展来源资料。一下自己一次全部社区。今天非常由于开发谢谢。其中大家组织游戏。只有最新控制同时计划学校。分析记者价格方式。成功可能感觉方式包括手机。中国重要这种比较必须中心我的。公司很多安全类别威望一种。标题部门全国文件日本帖子积分不同。工程这个其中销售历史可以。对于感觉全国发生国内不是。单位用户新闻成为。留言本站说明报告工作继续。2Pendulum管理时间 使用日期和时间格式从来都不是一件有趣的事情。 尽管内置的datetime模块做得相当不错,但有一个更直观的Pendulum,能做到快速处理。 它支持时区转换、日期、时间操作和格式设置。 如下是一个快速示例,快速创建1个上海时区的时间:fromdatetimeimportdatetimeimportpendulumshpendulum。timezone(AsiaShanghai)shcpendulum。now()print(CurrentDateTimeinsh,shc)DateTime(2021,12,9,16,38,52,599942,tzinfoTimezone(AsiaShanghai))shc。add(years1)DateTime(2022,12,9,16,38,52,599942,tzinfoTimezone(AsiaShanghai))3Scrapy做爬虫 Scrapy是一个强大的工具,可以让你从网站上快速提取信息。 当需要从多个网站或网页中提取大量信息时,手动提取是低效的。 Scrapy提供了易于使用的方法和包,可以使用HTML标记或CSS类提取信息。通过以下命令安装scrapy:pipinstallscrapy 然后直接在终端输入下面一行代码,scrapyfetchnologhttps:baidu。com 就能得到百度的首页html内容。4使用Pandas数据分析 Pandas是一个简单但功能强大的数据分析工具。使用它可以进行数据清洗,并对其进行统计分析。 分析完数据后,还可以使用外部库(如〔Matplotlib〕)将其可视化(https:github。commatplotlibmatplotlib)。 Pandas最棒的地方是它建在NumPy上面,NumPy是一个强大的数据分析工具,因为Pandas基于它,所以这意味着大多数NumPy方法都是Pandas中已有的函数。5click命令行工具 click是一个Python包,可用于创建命令行接口,相当漂亮的命令行,相当丝滑。 让我们看一个例子:click模块演示click。command()click。option(count,default3)click。option(name,prompt输入你的名字:)defhello(count,name):forxinrange(count):print(fHello{name}!)ifnamemain:hello() hello函数公开了两个参数:count和name。最后,在命令行,直接这样调用脚本:pythonclickhello。pycount5 最后打印:输入你的名字::zhenguoHellozhenguo!Hellozhenguo!Hellozhenguo!Hellozhenguo!Hellozhenguo!6微web框架Flask 需要设置web服务器吗? 你有两秒钟的时间吗?因为这就是用Python启动简单web服务器所需的时间,直接下面一行代码:pythonmhttp。server8000 但对于一个基本的web应用程序来说,这可能太简单了。Flask是一个用Python构建的微web框架。它是微型的,因为它没有任何数据库抽象层、表单验证或邮件支持。 幸运的是,它有大量的扩展,可以即插即用,如果只想提供一个简单的API,那么它就是完美的。 要使用Flask创建API服务器,请使用以下脚本:fromflaskimportFlaskfromflaskimportjsonifyappFlask(name)app。route()defroot():returnjsonify(appnamezhenguo的小工具,appuserzhenguo) 使用下面一行代码启动服务:FLASKAPPflask。pyflaskrun 最后,当您在浏览器中访问URLhttp:127。0。0。1:5000时, 应该会看到以下JSON:{appname:zhenguo的小工具,appuser:zhenguo}7API请求Requests Requests是一个强大的HTTP库。有了它,可以自动化任何与HTTP请求相关的操作,包括API自动化调用,这样你就不必再手动进行调用。 它附带了一些有用的特性,如授权处理、JSONXML解析和会话处理。 如下获取明文地址:北京市海淀区清华东路35号,对应的经纬度时,使用百度地图接口,免费注册得到一个apk,返回经纬度结果如下所示:importrequestsimportrereprequests。get(https:api。map。baidu。comgeocodingv3?address北京市海淀区清华东路35号outputjsonak你的apkcallbackshowLocation)print(re。findall(rlng:(。),lat:(。?)},rep。text))结果显示〔(116。35194130702107,40。00664192889596)〕8自动化测试Selenium Selenium是一个编写自动化测试用例的测试框架。 尽管它是用Java编写的,Python包提供对几乎所有Selenium函数的类似API的访问。 Selenium通常用于自动化应用程序UI的测试,但您也可以使用它自动化机器上的任务,如打开浏览器、拖放文件等。 看一个快速示例,演示如何打开浏览器并访问百度主页:fromseleniumimportwebdriverimporttimebrowserwebdriver。Chrome(executablepathC:ProgramFiles(x86)GoogleChromechromedriver。exe)websiteURLhttps:baidu。combrower。get(websiteURL)refreshrateint(15)一直保持运行whileTrue:time。sleep(refreshrate)browser。refresh() 现在,该脚本每15秒刷新浏览器中的百度主页。9图像处理Pillow 很多时候,需要以某种方式修改图像,使其更适合,例如模糊细节、组合一个或多个图像或创建缩略图。 将自制的Pillow脚本与Click组合在一起,然后直接从命令行访问它们,这对于加快重复的图像处理任务非常有用。 看一个模糊图像的快速示例: fromPILimportImage,ImageFiltertry:originalImage。open(pythonlogo。png)Blurtheimageblurredoriginal。filter(ImageFilter。BLUR)Displaybothimagesoriginal。show()blurred。show()blurred。save(blurred。png)except:print(未能加载图像) 如果觉得以上9个工具有用,可以收藏,点赞支持。 我习惯把自己工作多年的学习笔记沉淀在这个网站,给你学习提供点参考 http:www。zglg。work