首页
Search
1
C# 击败 Python 成为 TIOBE 2025 年度编程语言,业界地位仍面临 Java 生态优势挑战
9 阅读
2
IT、互联网行业就业热度依旧!这份调研报告出炉
9 阅读
3
韩报告:中国IT行业需求恢复有望推动韩国对华出口增加
7 阅读
4
巫妖易语言+js逆向+安卓逆向,巫妖易语言,探索JS逆向与安卓逆向的深度应用
5 阅读
5
全国信息学奥赛入门级竞赛被举报泄题,中国计算机学会:收到举报,正在调查
5 阅读
采集分类
技术分享
工具分享
登录
Search
私人云
累计撰写
1,021
篇文章
累计收到
3
条评论
首页
栏目
采集分类
技术分享
工具分享
页面
搜索到
1021
篇与
的结果
2026-01-29
php源码 php源代码下载
PHP源码下载指南,探索开源世界,构建高效Web应用,在Web开发领域,PHP(Hypertext Preprocessor)作为一种广泛使用的服务器端脚本语言,以其强大的功能、灵活性和开源特性,赢得了全球开发者的青睐。无论是构建动态网站、电子商务平台还是复杂的Web应用程序,PHP都提供了丰富的资源和工具。本文将为您详细介绍如何获取高质量的PHP源代码,以及下载和使用这些源码时需要注意的事项。PHP带后台网站模板:http://demo. bang-dun . com (已发布1000多款)HTML前端网页模板:https://www. yunbuluo . net (已发布8000多款)企业网站模板下载推荐云部落资源网,云部落资源网致力于为开发者、设计师和所有创意工作者提供一个全面、高效且易于使用的网页代码资源库,已发布带后台网站模板1000多款,HTML前端网页模板已发布5000多款,其他代码素材3000多款。PHP源码的重要性学习与研究:通过阅读和分析优秀的PHP源码,开发者可以学习到先进的编程技巧、设计模式和最佳实践,从而提升自己的编程能力。快速开发:利用现成的PHP源码作为起点,可以大大缩短开发周期,减少重复劳动,让开发者能够更专注于业务逻辑的实现。定制与扩展:基于现有的PHP源码进行二次开发,可以根据具体需求进行定制化修改或功能扩展,满足特定场景下的应用需求。社区贡献:参与开源项目,分享自己的PHP源码,不仅可以回馈社区,还能获得来自全球开发者的建议和支持,促进个人技术成长。选择PHP源码时的考量因素代码质量:查看源码的提交记录、注释情况、测试覆盖率等,评估其可读性和可维护性。更新频率:活跃的项目通常会有更频繁的更新,意味着更好的兼容性和安全性。展开全文文档支持:良好的文档能够帮助开发者更快地理解源码结构和使用方法。许可证类型:确保所选源码的许可证符合您的使用目的,避免版权纠纷。社区活跃度:一个活跃的社区意味着更多的问题解答、插件扩展和持续改进。下载与使用PHP源码的基本步骤选择合适的源码:根据项目需求,在上述渠道中搜索并筛选出合适的PHP源码。阅读文档:在下载前,仔细阅读源码附带的README文件或其他文档,了解安装要求、配置说明等信息。下载源码:点击下载链接,将源码包保存至本地。解压与部署:使用解压工具打开源码包,按照文档指示将其部署到服务器或本地开发环境中。配置与调试:根据需要调整配置文件,运行源码并进行必要的测试,确保一切正常。集成与扩展:将下载的源码集成到现有项目中,或根据需要进行二次开发,添加新功能。总之,合理利用PHP源码资源,不仅可以加速Web开发进程,还能促进技术交流和个人技能提升。记得在选择和使用源码时,遵守相应的开源协议,尊重原作者的劳动成果,共同维护健康的开源生态。返回搜狐,查看更多
2026年01月29日
0 阅读
0 评论
0 点赞
2026-01-29
PHP爬虫编写
一、PHP 是什么东西? PHP(外文名:PHP: Hypertext Preprocessor,中文名:“超文本预处理器”)是一种通用开源脚本语言。语法吸收了C语言、Java和Perl的特点,利于学习,使用广泛,主要适用于Web开发领域。PHP 独特的语法混合了C、Java、Perl以及PHP自创的语法。它可以比CGI或者Perl更快速地执行动态网页。用PHP做出的动态页面与其他的编程语言相比,PHP是将程序嵌入到HTML(标准通用标记语言下的一个应用)文档中去执行,执行效率比完全生成HTML标记的CGI要高许多;PHP还可以执行编译后代码,编译可以达到加密和优化代码运行,使代码运行更快。——百度百科的描述。二、爬虫有什么用? 爬虫有什么用?先说一下爬虫是什么东西,我认为爬虫就是一个网络信息收集程序,也许我自己的理解有错误,也请大家给我指正。既然爬虫是一个网络信息收集程序,那就是用来收集信息,并且收集的信息是在网络上面的。如果还是不太清楚爬虫有什么用,我就举几个爬虫应用的例子:搜索引擎就需要爬虫收集网络信息供人们去搜索;大数据的数据,数据从哪里来?就是可以通过爬虫在网络中爬取(收集)而来。三、通常听到爬虫会想到 Python,但为什么我用 PHP,而不用 Python 呢?Python 我说实话,我不会 Python。( Python 我真不会,想知道可能你要去百度一下,因为 Python 我真不会。)PHP 写东西我一直都是认为,你只要想出算法程序就已经出来了,不用考虑太多数据类型的问题。PHP 的语法和其他编程语言差不多,就算你开始不会 PHP,你也可以马上上手。PHP的语法和其他编程语言差不多,就算你开始不会 PHP,你也可以马上上手。的想法有错。)本人其实也是初学 PHP,想通过写一些东西提高自己的水平。(下面可能有些代码会让你觉得不够规范,欢迎指正,谢谢。)四、PHP爬虫第一步 PHP爬虫第一步,第一步......第一步当然就是搭建 PHP 的运行环境,没有环境PHP又怎么能运行呢?就像鱼不能离开水一样。(我见识还不够,可能我举的鱼的例子不够好,请见谅。)在Windows的系统下我使用 WAMP,而在Linux的系统下我使用 LNMP 或者 LAMP。 WAMP:Windows + Apache + Mysql + PHP LAMP:Linux + Apache + Mysql + PHP LNMP:Linux + Nginx + Mysql + PHP Apache 和 Nginx 是 Web 服务器软件。 Apache或Nginx、Mysql 以及 PHP 这些都是 PHP Web 的基本配置环境。网上有 PHP Web 环境的安装包,这些安装包使用很方便,不需要每给东西安装以及配置。但如果你对这些集成安装包担心安全问题,你可以到这些程序的官网下载然后在网上找配置教程就可以了。(说真的,我真心的不会单独去弄,我觉得很麻烦。)五、 PHP爬虫第二步(感觉自己废话好多,应该马上来一段代码!!!)<?php// 爬虫核心功能:获取网页源码 $html = file_get_contents("https://www.baidu.com/index.html");// 通过 php 的 file_get_contents 函数获取百度首页源码,并传给 $html 变量 echo $html;// 输出 $html?> 爬虫网络核心功能已经写出来了,为什么说就这么几行代码就把爬虫核心功能写出来了呢?我猜有人已经明白了吧,其实是因为爬虫是数据获取的程序,就上面几行代码其实已经能够获取数据了,所以爬虫的核心功能已经写出来了。可能有人会说“你这个也太菜了吧!有什么用?”,虽然我是很菜,但请别说出来,让我好好装个X。(又说了两行废话,不好意思。) 其实爬虫是用来干嘛,主要看你想让它来干嘛。就像我前些日子为了好玩写了一个搜索引擎网站出来,当然网站很菜,结果排序没有规律,很多都查不到。我的搜索引擎的爬虫就是要写一个适合于搜索引擎的爬虫。所以为了方便我也就用写搜索引擎的爬虫为目标讲解。当然了,我搜索引擎的爬虫还是不够完善,不完善的地方都是要你们自己去创造,去完善。六、 搜索引擎爬虫的限制 搜索引擎的爬虫有时候不是不能那个网站的页面获取页面源码,而是有robot.txt文件,有该文件的网站,就代表站主不希望爬虫去爬取页面源码。(不过如果你就是想要获取的话,就算有也一样会去爬吧!) 我搜索引擎的爬虫其实还有很多不足而导致的限制,例如可能因为无法运行 JS 脚本所以无法获取页面源码。又或者网站有反爬虫的机制导致不能获取到页面源码。有反爬虫机制的网站就如:知乎,知乎就是有反爬虫的机制的网站。七、以弄搜索引擎爬虫为例,准备写该爬虫需要的东西PHP 编写基础正则表达式(你也可以使用Xpath,对不起,我不会使用)数据库的使用(本文使用 MySql 数据库)运行环境(只要有能运行 PHP 网站的环境和数据库就OK)八、搜索引擎获取页面源码并获取页面的标题信息<?PHP// 通过 file_get_contents 函数获取百度页面源码 $html = file_get_contents("https://www.baidu.com/index.html");// 通过 preg_replace 函数使页面源码由多行变单行 $htmlOneLine = preg_replace("/\r|\n|\t/","",$html);// 通过 preg_match 函数提取获取页面的标题信息 preg_match("/<title>(.*)<\/title>/iU",$htmlOne,$titleArr);// 由于 preg_match 函数的结果是数组的形式 $title = $titleArr[1];// 通过 echo 函数输出标题信息 echo $title;?> 报错误示例:Warning: file_get_contents("https://https://127.0.0.1/index.php") [function.file-get-contents]: failed to open stream: Invalid argument in E:\website\blog\test.php on line 25 https是SSL加密协议,如果出现获取页面时报上面的错误,代表你的 PHP 可能少了OpenSSL 的模块,你可以到网上查找解决办法。九、搜索引擎爬虫的特点虽然我没见过像“百度”,“Google”它们的爬虫,可是我自己通过猜测,以及在实际爬去过程当中遇到的一些问题,自己总结的几个特点。(可能有不对的地方,或者欠缺的地方,欢迎指正,谢谢。)通用性 通用性是因为我认为搜索引擎的爬虫一开始并不是针对哪一个网站制定的,所以要求能爬取到的网站尽可能的多,这是第一点。而第二点,就是获取网页的信息就是那些,一开始不会因为某些个别特殊小网站而放弃某些信息不提取,举个例子:一个小网站的一个网页meta标签里没有描述信息(description)或者关键词信息(keyword),就直接放弃了描述信息或者关键词信息的提取,当然如果真的某一个页面没有这些信息我会提取页面里的文字内容作为填充,反正就是尽可能达到爬取的网页信息每个网页的信息项都要一样。这是我认为的搜索引擎爬虫的通用性,当然我的想法可能是错误的。(我说得可能不是太好,我一直在学习。)不确定性 不确定性就是我的爬虫获取什么网页我是控制不够全面的,只能控制我能想到的情况,这也是因为我写的算法就是这样的原因,我的算法就是爬取获取到的页面里的所有链接,再去爬去获取到的这些链接,其实是因为搜索引擎并不是搜某一些东西,而是尽可能的多,因为只有更多的信息,才能找到一个最贴切用户想要的答案。所以我就觉得搜索引擎的爬虫就要有不确定性。(我自己再看了一遍,也有点觉得自己说得有点让自己看不懂,请见谅,欢迎指正,提问,谢谢了!)下面的视频是我的搜索网站的使用视频,而搜到的信息就是通过自己写的 PHP 爬虫获取到的。(这个网站我已经不再继续维护了,所以有欠缺之处,请见谅。)十、到现在可能出现的问题获取的源码出现乱码<?PHP// 乱码解决办法,把其他编码格式通过 mb_convert_encoding 函数统一转为 UTF-8 格式 $html = mb_convert_encoding($html,UTF-8,UTF-8,GBK,GB2312,BIG5);// 还有一种因为gzip所以出现乱码的,我会在以后讲?>2. 获取不到标题信息<?PHP// 获取不到标题信息解决办法,首先判断是否能获取到页面源码// 如果能获取到但还是不能获取到标题信息// 我猜测的问题是:因为我教的是使用正则表达式获取的,源码没有变成一行,获取起来就会出现问题$htmlOneLine=preg_replace("/\r|\n|\t/","",$html);?>3.获取不到页面源码<?PHP// 像新浪微博你可能获取到的是“Sina Visitor System” // 解决办法添加header信息 $opts = array(http=>array(method=>"GET","timeout"=>20,header=>"User-Agent: Spider \r\n",));$context = stream_context_create($opts);$html = file_get_contents($domain,0,$context,0,150000);// 这样就能获取到新浪微博的页面了?>十一、获取一个网页时的处理思路我们先不去想很多网页,因为很多网页也就是一个循环。获取页面源码通过源码提取页面的什么信息提取的信息要怎么处理处理后放不放进数据库十二、按照十一的思路的代码<?php// 一、获取源码 // 假设我们要获取淘宝首页 $html = file_get_content("https://www.taobao.com");// 二、提取标题和文本// 三、提取信息处理 // 处理页面源码,多行变单行 $htmlOneLine = preg_replace("/\r|\n|\t/","",$html);// 获取标题信息 preg_match("/<title>(.*)<\/title>/iU",$htmlOneLine,$titleArr);// 保留标题信息 $titleOK = $titleArr[1];// 获取页面中的文本信息 // 处理前面不需要的head标签 $htmlText = preg_replace("/<html>(.*)<\/head>/","",$htmlOneLine);// 处理style和script标签及内容 $htmlText = preg_replace("/<style(.*)>(.*)</style>|<script(.*)>(.*)</script>/iU","",$htmlText);// 处理多余标签 $htmlText = preg_replace("/<(\/)?(.+)>/","",$htmlText);// 四、保存到数据库 // 略?>十三、PHP 保存页面的图片思路获取页面源码获取页面的图片链接使用函数保存图片十四、保存图片示例代码<?php// 使用file_get_contents()函数获取图片 $img = file_get_contents("http://127.0.0.1/photo.jpg");// 使用file_put_contents()函数保存图片 file_put_contents("photo.jpg",$img);?>十五、gzip解压 本来我以为自己写的爬虫已经写得差不多了,就是除了反爬虫的网站难以爬取外,应该是都可以爬了。但有一天我去尝试爬去bilibili的时候出现问题了,我发现怎么我数据库里面的都是乱码,而且标题什么的都没有,好奇怪!后来我才知道原来是因为GZIP的压缩,原来我直接使用file_get_content函数获取的页面是未经过解压的页面,所有都是乱码!好了,然后我知道问题出现在那里了,接下来就是想解决办法了。(其实那时候的我是完全不知道怎么解决解压gzip的,都靠搜索引擎,哈哈哈哈哈)。我得到了两个解决办法:在 request header 那里告诉对方服务器,我这爬虫(不。。。应该是我这浏览器)不支持gzip的解压,就麻烦你不要压缩,直接把数据发给我吧! // 这是request header(请求头)$opts = array(http=>array(method=>"GET","timeout"=>20,header=>"User-Agent: Spider \r\n"."accept-encoding:"));// 我把accept-encodeing(能接收编码)设为空,代表不接受gzip2. 如果告诉了对方服务器本浏览器(爬虫)不支持解压gzip,可他还是继续发gzip的数据给你,那就没有办法了,只好默默的在搜索引擎找php解压gzip的解压函数——gzdecode()。// 废话:好久没更新了,因为最近又在重复造轮子,不过好开心 -- 2019.01.14十六、子链接的获取 网页爬虫就好比自动的网页源码另存为操作,可是如果真的是一个一个网址手动输入给爬虫去爬取的话,那还倒不如人手另存为呢!所以在这里就得解析到那些子链接,一个网页其实会有很多的a标签,而这些a标签的href属性值就会是一个子链接。(这句怎么感觉有一点废话呢?应该大家都知道吧!)通过很多种工具的解析得到了原始的子链接(我没用html的工具,就是用了正则表达式及工具)为什么叫原始数据,因为这些子链接有很多不是URL链接,又或者是一些不完整的链接,又或者你是要爬一个网站,不要爬虫跑出去的时候,还得去除一些并非那个网站的链接,防止爬虫跑出去。下面我列举一些原始子链接。(其实就是我喷到的坑。。。)http://example.com/./index.htmlindex.html//example.com/index.htmljavascript:;../index.htmlhttp://example2.com/index.html 你可以看得到这里有很多种链接,有完整的绝对路径的链接,也有不完整的相对路径链接,有的还跑来了javascript,如果是相对路径或javascript的链接,直接给爬虫去爬,肯定让爬虫一脸懵,因为不完整或根本就不是一个链接。所以就需要对子链接补全或者丢弃。十七、子链接的处理上面废话了一大堆后,接下来还是继续废话。好了,处理其实就是去重、丢弃以及补全。对于相同的子链接丢弃不保存对于相对路径链接补全对于不是链接的链接丢弃(不是链接的链接是什么东西?自己都觉得的奇怪。。。。) 对于第一种我就不多说了,相信大家都知道该怎么做。 对付第二种的方法我就写一个能够运行相对路径的方法出来就OK了,通过父链接来进行相对路径转绝对路径。(有空补代码给大家。。。不好意思了) 对于第三种也正则匹配一下就完了。十八、使用DOM来获取内容其实PHP里面是有 HTML 的 DOM,也就是把 HTML 文件解析成一个一个的节点,解析成节点,就可以减少使用正则表达式,正则表达式使用得太多,会造成不规范,又或者出现一些意外的情况。因为 HTML 的页面不是你控制的,所以你的正则表达式去获取 HTML 内容就会造成不规范出现错误。DOM 还有另一个好处,那就是对于不会写正则表达式的朋友,就只需要使用xpath表达式就可以获取得到你想要的节点的数据,变得与使用正则表达式相比更简单。十九、使用抓包软件来排查抓不到网页的原因因为有一些网站需要登录了才能拿到数据、又或者有些网站需要添加某些特定的请求头才能获取到数据,所以我们可以用抓包软件来研究,到底需要哪些数据,是用于网站服务端用来鉴权。有了抓包软件,我们就能清楚的分析。# 如果有问题就发评论,让大家一起解决,谢谢。未完待续。。。
2026年01月29日
0 阅读
0 评论
0 点赞
2026-01-29
什么是PHP,PHP能干什么,为什么使用PHP
在学习任何东西之前,我们都得了解这门东西究竟是什么,有什么用。学习PHP一样如此。 一、什么是PHPPHP,全称 Hypertext Preprocessor ,中文翻译“超文本预处理器”。在PHP的官网是这样介绍PHP的:PHP is a popular general-purpose scripting language that is especially suited to web development.Fast, flexible and pragmatic, PHP powers everything from your blog to the most popular websites in the world. 照顾英文能力较差的同学,以下为中文版PHP是一种被广泛应用的开源通用脚本语言,尤其适用于 Web 开发。拥有快速,灵活,实用的特点,PHP能做任何事,包括你的个人博客甚至是全球性的大型站点系统。PHP内核由C开发,因此在语法上跟C有不少相似之处。但PHP绝对不是C。PHP语法除了跟C有相似之处外,还跟Java、Perl比较流行的编程语言存在相似的地方。因此,如果你有上述语言基础,PHP入门会更加快速。二、PHP能干什么PHP能干任何事!PHP能直接嵌入HTML语言中,与HTML混编。PHP开发的目的主要是允许 web 开发人员快速编写动态生成的 web页面,但 PHP 的用途远不只于此。 PHP还包含了命令列执行接口(command lineinterface),和产生图形使用者接口(GUI)程式。 PHP能干任何事!PHP能干任何事!PHP能干任何事!重要的事情要说3遍!三、为什么选择PHP1、PHP开源免费,没有任何收费的项目。你可以随便修改他的内核然后用于自己的商业使用。2.、PHP开发组件丰富(对于新手来说一堆IDE也是够选择困难症纠结的)3、社区成熟,85%以上的问题能在社区找到相应的解决思路。4、PHP学习成本低,不想某门语言要学就得三件套。见效快,学1个月基本能入门5、开源库丰富,基本所有类型均有开源产品6、PHP7.0基本不输任何一门语言~!这是重点7、与MySQL近乎完美的支持8、找工作容易9、连Facebook都在用php,你还什么理由不用?
2026年01月29日
0 阅读
0 评论
0 点赞
2026-01-29
解决Linux下php-fpm缺失问题
个人搭建网站如今已十分普遍,各类便捷的建站工具让操作变得简单易行,即便是新手也能轻松上手。常用的工具有WAMP、PHPStudy、LAMP等。在Windows系统中,只需运行一个可执行文件即可快速启动环境,使用方便。然而在Linux系统下,配置过程常会遇到各种问题,失败的情况屡见不鲜。本文将逐步记录搭建过程中的常见问题,重点解决PHPStudy安装时出现的PHP-FPM组件缺失问题,帮助用户顺利完成环境部署,提升配置效率与稳定性。1、 首先,从网络下载所需工具,其中php源码包是解决问题的关键。下载完成后,按图示进行解压操作。在Linux系统中,zip文件的解压方式所示。2、 打开终端后运行phpstudy-all.bin文件,该文件为Linux系统下的完整安装包。若无法执行,请先修改文件权限,可使用chmod 777 phpstudy-all.bin命令赋予执行权限,随后再次尝试运行。3、 运行phpstudy-all.bin文件后,会弹出安装选项界面。在PHP版本中选择5.5,其余组件建议均选择最新版本。服务器环境推荐使用Lighttpd,配置相对简单,尤其适合未安装过其他服务的系统。当然,Apache和Nginx在实际应用中更为普遍,功能也更强大,但对于搭建一个小型网站而言,Lighttpd已完全够用,无需追求复杂配置。完成所有选项设置后,耐心等待约十分钟,系统便会自动完成phpstudy的安装过程,之后即可进入使用。4、 所有文件最终都被安装到/phpstudy目录,所示。接着运行phpstudy start命令,我的操作已成功执行,但你可能会遇到php-fpm not found的错误提示。这说明当前目录中缺少php-fpm文件。为解决此问题,我们需要手动获取该文件,以确保服务能够正常启动和运行。5、 进入已解压的PHP 5.5.38文件夹目录,开始进行编译安装操作。将缺少的PHP-FPM组件安装至/phpstudy目录下。编译参数可直接沿用phpstudy-all.bin中提取的配置命令,具体所示。随后执行make命令进行编译,再运行sudo make install完成安装。整个过程结束后,PHP及相关组件即成功部署到指定路径,环境配置初步完成,可进行下一步的调试与启动操作。6、 启动phpstudy后,按照上述步骤操作,打开浏览器并输入localhost,按回车即可访问服务器页面。
2026年01月29日
0 阅读
0 评论
0 点赞
2026-01-29
Ubuntu16.04配置PHP环境
介绍PHP语言,演示在Ubuntu 16.04系统下配置Apache2、PHP与MySQL的运行环境,搭建基础的Web开发平台。1、 PHP全称为PHP:超文本预处理器,是一种广泛使用的开源通用脚本语言,常用于网页开发,具有良好的跨平台性和扩展性,适合构建动态网站和网络应用。2、 PHP 文件能够嵌入文本、HTML、JavaScript 以及 PHP 代码,其中 PHP 代码在服务器端执行,执行后将结果以纯 HTML 格式发送至浏览器。此类文件通常以 .php 作为默认的文件扩展名,便于服务器识别并解析其中的 PHP 指令。3、 PHP 能够实现网页的动态内容生成,支持文件操作,包括创建、打开、读取、写入和关闭服务器文件。它可用于收集表单提交的数据,管理 cookies 的发送与接收,并对数据库执行添加、删除和修改等操作。同时,PHP 可用于控制用户对特定网页的访问权限,并提供数据加密功能。借助 PHP,网页输出不仅限于 HTML,还能生成图像、PDF 文档和 Flash 动画。此外,它也支持生成各类文本格式内容,如 XHTML 和 XML,极大地拓展了网站功能与表现形式。4、 PHP支持在Windows、Linux、Unix、Mac OS X等多种操作系统上运行,兼容各类主流服务器,广泛支持各类数据库。它免费开源,易于学习,执行效率高,功能强大,适用于各类Web开发需求,可直接从官网www.php.net免费下载使用。5、 代码简洁所示6、 在终端输入指定命令,install后接所需安装的软件,完成PHP环境配置。7、 安装过程中需选择Web服务器,使用空格键勾选apache2并确认。随后在提示界面输入之前安装MySQL时设置的密码,两次确认密码一致后继续。接下来系统会自动将phpMyAdmin与apache2进行关联配置,确保服务正常运行,完成集成步骤,为后续数据库管理打下基础。整个过程需保持网络稳定,避免中断。8、 做个简单测试9、 开启Apache服务器10、 在phptest文件夹中创建一个名为test.php的PHP文件。11、 在gedit中输入以下内容:12、 保存后退出13、 在浏览器地址栏中输入网址打开网页14、 按回车查看结果15、 终端输入其他命令16、 查看PHP版本可使用命令 php -v17、 在浏览器地址栏输入127.0.0.1或localhost,即可看到Apache2的默认页面,表示服务已正常运行。
2026年01月29日
0 阅读
0 评论
0 点赞
1
...
189
190
191
...
205