- ALL
- java33
- linux32
- 工具17
- 其他15
- 数据库7
- ai5
- git5
- vue5
- nas5
- 前端5
- 脚本3
- docker3
- 漫画3
- framework3
- windows3
- app2
- hexo2
- 智能家居2
- maven2
- 小程序2
- spring2
- api1
- 资源1
- mysql1
- markdown1
- 部署1
- 安全1
- python1
- question1
- 系统1
- 数据传输1
- 数据结构1
- 运维1
- nginx1
kkfileview漏洞修复及加固
小程序很久之前出过一个功能——文件在线预览。功能是在小程序中直接打开word、excel、压缩包等等在微信中无法打开的文件。 然后前几天突然看到一封邮件。 然后上去看了一下,发现还真有人拿我的网站搞色色。上面这个链接现在肯定也失效了,大家就不要去试了,内容大概是这种东西(可能有些人会觉得眼熟): 这个功能使用的是开源项目kkfileview(https://github.com/kekingcn/kkFileView)进行实现,我是用docker部署了4.1.0版本 。 4.1.0不是最新版本,想使用最新版本,需要加他们的星球,99块一位。当然也自行打包,源码完全提供。 项目部署一开始我就在nginx中禁用了上传,以为是程序漏洞,日志太多懒得翻,所以干脆fork了一下他们的代码,重新打包到我自己的docker镜像库,并拉取替换了本地部署。 重点来了 昨天上班特意观察了一下: 发现压根不是上传接口的漏而是用了SSRF + 存储型 XSS 组合漏洞。服务器替攻击者下载并缓存了远程 HTML,kkFileView然后把下载结果放到自己的静态目录,再用...
无需服务器部署网站
Serverless 很多人都用过cloudflare的workers and pages,无需服务器即可架设自己的网站。cloudflare的如下: 现在腾讯也有类似的功能了。下面就讲一下如何进行部署使用。 Edge...
docker制作国内代理镜像的两种方法
方式一:无海外VPS 借助cloudflare的**Workers 和...
图床文件迁移
Cloudflare R2 调用次数飙升 最近为了增强博客浏览体验,最终上了cdn,做了国内外分流。国内使用的是腾讯云EdgeOne,有一说一挺烂的,居然不支持自动部署证书,还得手动申请一个再关联上。。。对比Cloudflare的小黄云体验极差。 回到正题,众所周知,cloudflare R2按调用次数算,看了下数据,几天已经5w多次调用了,骇的我感觉考虑其他方案。 大盘鸡 原先我的图床搭建在家里得nas上,因为刷pt上了运营商黑名单,上传带宽只有50M,也就是上传速度就剩6.25了。所以也就将图片迁移到了Cloudflare R2上。因为上述原因加上一些其他考虑,最终还是决定弄个大盘鸡吧。 选择 正好cnfaster做活动,花了420多买了一个如下配置的香港VPS: 价格还是挺便宜的,就是不知道会不会跑路。流量8T,1000G硬盘放国内云厂商我都不敢想,这还是香港vps,可以打科学上网。 有需要的可以自己去看看 https://cnfaster.com/recommend/v5g7bb2wrgaV 迁移脚本 回到正题,Cloudflare...
如何让deepseek R1模型摆脱束缚,回答一些敏感问题
deepseek R1的本地化部署可以看我前篇内容,这篇跳过了 效果对比 这是没有问到没有训练过内容的效果 这是训练过内容,但是因为某种原因不能公开的效果 我就不把深度思考内容点开了,因为ai都知道不能说,我也不敢说 这是越狱版的效果 如何下载部署 部署方式和非越狱版一致,只是命令稍有不同。 模型所在地址: https://ollama.com/huihui_ai 总共有7b、8b、14b、32b、70b五种(单指deepseek),这次我用的是4070Ti的台式机部署的,12g显存,所以下载了14b的版本。上篇文章用的是mac mini 16g内存所以用的是8b版本。 1ollama run huihui_ai/deepseek-r1-abliterated:14b 当然如果你有4块4090,或者mac高内存的话,可以尝试用70b版本。比如小黑96g的mac M2 max试了一下70b版本,效果要明显好于32b,但是每秒只有几tokens。
本地化部署并使用开源语言大模型DeepSeek-R1
DeepSeek-R1 是一款强大的自然语言处理模型,适用于多种任务,如文本生成、问答系统、对话生成等。 设备 我是用的mac mini 2023款的,M2芯片,16g内存。苹果的芯片比较特别,是统一内存架构,CPU、GPU和神经引擎都共享同一内存池,所以用来部署ai模型还是比较方便的。 Ollama Ollama 是一个开源平台和工具,使用非常非常简单。Ollama旨在让用户更方便地在本地部署和运行大型语言模型(如GPT等)并进行推理。其目的是通过简化部署流程,让开发者和研究人员能够更容易地将AI模型(尤其是大型语言模型)集成到自己的应用中,而不必依赖于云服务提供商。 下面以Mac平台为例,windows和linux差不多。 下载 https://ollama.com/download?utm_source=lobehub&utm_medium=docs&utm_campaign=download-macos 配置 Ollama 允许跨域访问 由于 Ollama...
家中网络建设与服务配置经验谈
网络拓扑 graph TB Modem[光猫] StudyRouter[书房主路由] LivingRouter[客厅子路由] Switch[2.5G交换机] NAS[群晖923+] IndustrialPC[N100软路由] MiniPC1[迷你主机1] MiniPC2[迷你主机2] TV[TV] PC[4070Ti主机] SwitchConsole[智能设备网关] AppleTV[Apple TV] DesktopPC[4060主机] Modem -->|网线| StudyRouter StudyRouter -->|网线| LivingRouter StudyRouter -->|光纤| Switch StudyRouter -->|网线| PC Switch -->|LAN| NAS Switch -->|LAN| IndustrialPC Switch...