- ALL
- java33
- linux32
- 工具18
- 其他15
- 数据库7
- ai6
- nas5
- vue5
- 前端5
- git5
- 脚本3
- 漫画3
- docker3
- windows3
- framework3
- app2
- 小程序2
- 智能家居2
- maven2
- spring2
- hexo2
- api1
- mysql1
- 资源1
- markdown1
- python1
- 安全1
- nginx1
- question1
- 系统1
- 部署1
- 数据传输1
- 运维1
- 数据结构1
使用claude code + cloudflare上线一个工具下载说明站
本文是一个完整的建站、部署示例,不需要懂任何代码,在十分钟内可以上线一个属于自己的网站,供所有人进行访问。 这个网站可以是博客、外贸网站、游戏网站等等,流程都一样,区别只是内容。 有需要使用influxdb连接工具的可以试试我正在做的这个软件,全平台分发,几兆体积。不过正在做,不少功能没完善。 将要使用的工具 我采用的是Claude Code + github + cloudflare作为整个流程的支撑工具。国内Claude Code完全无法使用,github间歇性可以使用,cloudflare正常使用,所以没有科学手段的同学可以采用刚出的阿里的Qwen Code来代替Claude Code。 或者采用完全国内无门槛的工具集合——Qwen Code + gitee +...
kkfileview漏洞修复及加固
小程序很久之前出过一个功能——文件在线预览。功能是在小程序中直接打开word、excel、压缩包等等在微信中无法打开的文件。 然后前几天突然看到一封邮件。 然后上去看了一下,发现还真有人拿我的网站搞色色。上面这个链接现在肯定也失效了,大家就不要去试了,内容大概是这种东西(可能有些人会觉得眼熟): 这个功能使用的是开源项目kkfileview(https://github.com/kekingcn/kkFileView)进行实现,我是用docker部署了4.1.0版本 。 4.1.0不是最新版本,想使用最新版本,需要加他们的星球,99块一位。当然也自行打包,源码完全提供。 项目部署一开始我就在nginx中禁用了上传,以为是程序漏洞,日志太多懒得翻,所以干脆fork了一下他们的代码,重新打包到我自己的docker镜像库,并拉取替换了本地部署。 重点来了 昨天上班特意观察了一下: 发现压根不是上传接口的漏而是用了SSRF + 存储型 XSS 组合漏洞。服务器替攻击者下载并缓存了远程 HTML,kkFileView然后把下载结果放到自己的静态目录,再用...
无需服务器部署网站
Serverless 很多人都用过cloudflare的workers and pages,无需服务器即可架设自己的网站。cloudflare的如下: 现在腾讯也有类似的功能了。下面就讲一下如何进行部署使用。 Edge...
docker制作国内代理镜像的两种方法
方式一:无海外VPS 借助cloudflare的**Workers 和...
图床文件迁移
Cloudflare R2 调用次数飙升 最近为了增强博客浏览体验,最终上了cdn,做了国内外分流。国内使用的是腾讯云EdgeOne,有一说一挺烂的,居然不支持自动部署证书,还得手动申请一个再关联上。。。对比Cloudflare的小黄云体验极差。 回到正题,众所周知,cloudflare R2按调用次数算,看了下数据,几天已经5w多次调用了,骇的我感觉考虑其他方案。 大盘鸡 原先我的图床搭建在家里得nas上,因为刷pt上了运营商黑名单,上传带宽只有50M,也就是上传速度就剩6.25了。所以也就将图片迁移到了Cloudflare R2上。因为上述原因加上一些其他考虑,最终还是决定弄个大盘鸡吧。 选择 正好cnfaster做活动,花了420多买了一个如下配置的香港VPS: 价格还是挺便宜的,就是不知道会不会跑路。流量8T,1000G硬盘放国内云厂商我都不敢想,这还是香港vps,可以打科学上网。 有需要的可以自己去看看 https://cnfaster.com/recommend/v5g7bb2wrgaV 迁移脚本 回到正题,Cloudflare...
如何让deepseek R1模型摆脱束缚,回答一些敏感问题
deepseek R1的本地化部署可以看我前篇内容,这篇跳过了 效果对比 这是没有问到没有训练过内容的效果 这是训练过内容,但是因为某种原因不能公开的效果 我就不把深度思考内容点开了,因为ai都知道不能说,我也不敢说 这是越狱版的效果 如何下载部署 部署方式和非越狱版一致,只是命令稍有不同。 模型所在地址: https://ollama.com/huihui_ai 总共有7b、8b、14b、32b、70b五种(单指deepseek),这次我用的是4070Ti的台式机部署的,12g显存,所以下载了14b的版本。上篇文章用的是mac mini 16g内存所以用的是8b版本。 1ollama run huihui_ai/deepseek-r1-abliterated:14b 当然如果你有4块4090,或者mac高内存的话,可以尝试用70b版本。比如小黑96g的mac M2 max试了一下70b版本,效果要明显好于32b,但是每秒只有几tokens。