海洋CMS自动采集脚本(sh脚本)2023版

第一步:获取脚本代码。
【1】下面是自动采集脚本代码,我们需要修改代码里面的3项后才可以使用。

#!/bin/bash
########################################################
# 程序名称: 海洋CMS自动采集脚本
# 版本信息:seacmsbot-2023
# 发布链接: https://blog.heky.tk/index.php/archives/301/
# 使用方法:直接复制代码到宝塔计划任务shell脚本内容里添加每小时任务使用
# 更新时间:2023/1/16
##########################################################
#请修改下面的网站域名及管理目录
web_site="http://网站域名/管理目录/admin_reslib2.php"
   
#请修改下面项内容为"admin_reslib2.php"里设置的访问密码(默认为系统设置的cookie密码)
web_pwd="8888e82e85bd4540f0defa3fb7a8e888"
   
#下面项内容为资源站每日采集链接地址列表,请自行修改,每行一条,可添加多个,前后需添加引号。
#每日采集链接获取方法:选择"后台-采集-资源库列表",复制资源站右边的"采集每天"的链接地址,去掉?前面的内容。
web_api=(
    
      
      '?ac=day&rid=1&url=https://api.iokzy.com/inc/ldg_seackm3u8s.php'
     '?ac=day&rid=2&url=http://www.zdziyuan.com/inc/s_ldgm3u8_sea.php'
     
  
)
#模拟用户浏览器ua,如果脚本运行错误,请自行百度浏览器ua并自行修改
web_ua="Mozilla/5.0 (Linux; Android 4.4.4; HM NOTE 1LTEW Build/KTU84P) AppleWebKit/537.36 (KHTML, like Gecko) Version/4.0 Chrome/33.0.0.0 Mobile Safari/537.36 MicroMessenger/6. 0.0.54_r849063.501 NetType/WIFI"
   
#采集单页
function get_content() {
  echo  "正在采集第$page页..." 
  #echo  " get_content: --->url:--->$1"
  cResult=$(curl  --connect-timeout 10 -m 20  -k -s   -L -A "$web_ua"  "$1" )
  echo $cResult | grep -q "采集"
  #echo  -e  "$1\n$cResult"
 if [ "$?" = "0" ]; then
     next_content "$cResult"
else
    echo  -e "采集失败,请检查设置!\n失败链接-->$1\n返回信息-->$cResult\n采集结束,共0页"
fi 
}
#采集下页
function next_content() {
    #统计数据
     Result=$(echo "$1" | tr "<br>" "\n")
     a=$(echo "$Result" | grep -c  "采集成功")
     b=$(echo "$Result" | grep -c  "更新数据")
     c=$(echo "$Result" | grep -c  "无需更新")
     d=$(echo "$Result" | grep -c  "跳过")
     echo "采集成功-->已更$c部,新增$a部,更新$b部,跳过$d部"
     let add+=$a
     let update+=$b
     let none+=$c
     let jmp+=$d
    #检测并采集下页
     next_url=${1##*location.href=\'}
     next_url=${next_url%%\'*}
      #echo $next_url
      if [ "${next_url:0:1}" = "?" ]
          then
          let page++
          get_content "$web_site$next_url" 
    else
         echo "采集结束,共$page页"
       fi  
}
#脚本入口
echo "海洋CMS自动采集脚本开始执行 版本:v1.2"
starttime=$(date +%s)
update=0  #更新
add=0     #新增
none=0  #无变化
jmp=0  # 跳过
for url in ${web_api[@]}; 
do  
if [[ ! -z $url ]]
     then
           web_param="$web_site$url&password=$web_pwd"
           page=1
           echo "开始采集:$url"
           get_content $web_param
  fi 
done
endtime=$(date +%s)
echo "============================"
echo "入库-->$add部"
echo "更新-->$update部"
echo "跳过-->$jmp部(未绑定分类或链接错误)"
echo "今日-->$[none+add+update]部"
echo "============================"
echo  "全部采集结束,耗时$[endtime - starttime]秒"

第二步:修改脚本
【2】根据上面提供的代码内容复制到记事本或是其他html编辑器来对应修改

①请修改下面的网站域名及管理目录
web_site="http://网站域名/管理目录/admin_reslib2.php"

这个是需要修改成你的“网站域名”和“海洋cms后台的管理目录”。域名大家都能理解,后台的管理目录这个对于新手来说需要多讲两句,首先你要能登录你的后台才可以知道你的后台目录。举例说明:假如我的后台登录地址是 mytheme.cn/xxxx/那么这里的“xxxx”就是后台的管理目录,得到了管理目录我们直接填写到代码里即可。

②请修改下面项内容为"admin_reslib2.php"里设置的访问密码(默认为系统设置的cookie密码)
web_pwd="8888e82e85bd4540f0defa3fb7a8e888"

这个修改需要到海洋cms系统后台得到我们的cookie密码进行替换才可以,具体步骤:系统-网站设置-cookie密码。得到自己网站的cookie密码后替换即可。

③下面项内容为资源站每日采集链接地址列表,请自行修改,每行一条,可添加多个,前后需添加引号。

\#每日采集链接获取方法:选择"后台-采集-资源库列表",复制资源站右边的"采集每天"的链接地址,去掉?前面的内容。

web_api=(
   
    '?ac=day&rid=1&url=https://api.iokzy.com/inc/ldg_seackm3u8s.php'
   '?ac=day&rid=2&url=http://www.zdziyuan.com/inc/s_ldgm3u8_sea.php'  
)

这个是代码里需要修改的最后一项,里面是代码里默认提供的2个采集链接地址,我们需要获取自己的采集链接地址添加到里面。

第三步:宝塔定时任务设置。
直接复制代码到宝塔计划任务shell脚本,内容里添加每小时任务使用。

如果没有使用宝塔面板可以 把修改好的代码,另存为"cms.sh"(你想叫其他名字也可以) ,上传到vps文件夹中例如"/opt",然后执行以下代码

chmod +x opt/cms.sh
echo "* */1 * * * opt/cms.sh">>/etc/crontab
service crond start

就可以了

mysql 忘记密码找回

利用mysql自带的用户debian-sys-maint进行重置密码,只有Debian或Ubuntu服务器才有,存在于/etc/mysql/debian.cnf文件中

  1. 打开/etc/mysql/目录下的debian.cnf文件,里面包括用户名和密码
sudo vim /etc/mysql/debian.cnf
  1. 使用文件中提供的用户名和密码进入mysql
mysql -u debian-sys-maint -p
  1. 选择mysql数据库
use mysql;
  1. 更新root用户的密码
ALTER USER 'root'@'localhost' IDENTIFIED BY '你要修改的密码';

ps:数据库密码更换以后,如何重新设置Typecho?

修改文件 config.inc.php

2023/1/13

今天是网课的最后一天。

今天我买了一个阿根廷的steam账号,然后入了《候鸟》

主要是看到QQ空间里有人在发就一上头入了一个。

然后打算录一录实况

今天晚上还是作业在摸鱼。

说实话感觉过的好快啊,一下子又一周了。

可能和我一直在浑水摸鱼有关。