【转载】跨越半世纪的思念 作者:Das6fY5 翻新:贴吧,乌鲁乌拉轰 一 “求求你不要扔掉我。”少女走在他的背后。 “我可以端茶倒水,为你暖身子,我可以在白天给你打扫房间,到夜里把自己塞进床底下……只要每两周充一次电就好,电费我会去兼职赚钱交给你,让我做什么都行,除了……” 他停住,站在一处高崖旁,面前是一个巨大的深坑,胡乱堆砌着整个城市几十年来的垃圾。 “除了把我丢到垃圾场里……”她,这台已经过时了好几代的二手机器人跪 2024-07-17 #转载
【记录】使用acme.sh签发泛域名证书 .top 域名的 KSK 密钥轮替,不知道为什么把 Let's Encrypt 的 DNSSEC 验证流量阻断了,导致 Nginx Proxy Manager 现在无法续签证书,因此用 acme.sh 来申请其他家的证书暂时替代一下了。(DNSSEC: DNSKEY Missing) 准备工作 安装 acme.sh:curl https://get.acme.sh | sh -s email=l 2024-06-29 #acme
【记录】搭建流量统计工具 Shynet Shynet 是一款用 python 编写的现代、隐私友好、无需Cookie或JS即可工作的网络流量统计工具。 相比 Umami, Shynet 支持通过 1 pixel 的图像进行统计,而不依赖 JS, 并且 Shynet 统计的信息更加详细。 搭建 Shynet 反向代理服务 1mkdir -p ~/app/shynet && cd ~/app/shynet && 2024-03-25 #hexo
【记录】Linux 设置个人热点 实在受不了虚拟机的性能损失了,再加上 Win11 上跑虚拟机对 SSD 的损耗过大,因此还是将系统换成了 ubuntu,只要注意选无网络安装,不要去更新,基本还是很好换系统的。另外清华源不错! 换系统后,需要重新折腾一下 AP 设置,因此记录一下折腾过程。 无线网卡是垃圾的 mediatek mt7921e 更新内核 因为网卡垃圾,不得不更新到最新的内核才支持 AP 设置 1234567proxy 2024-03-20 #ubuntu
【探索】暴力计算临床研究的样本量 这篇博客介绍了如何计算临床研究中两组生存分析的样本量。首先,作者提供了R代码,包括Logrank对数秩检验的函数以及模拟计算样本量的函数。其次,作者详细解释了模拟计算的步骤,包括生成生存时间数据、招募时间、失访时间等,并通过模拟来估计研究的功效。最后,作者展示了如何使用模拟计算函数来确定样本量,以达到预先设定的功效水平。通过模拟检验,作者展示了样本量计算的有效性,并给出了两个示例,以验证样本量计算 2024-03-13 #R #Bootstrap
【探索】6G显存畅玩无限长度的LLM角色扮演 角色扮演的体验是否舒适主要受角色卡、大模型和生成时间三个因素的影响。 优秀的角色卡往往附带大量的设定,这会极大的拖慢第一次生成的时间,并且随着对话的进行,上下文长度很容易超过kv_cache的上限,这些很破坏沉浸式的体验。 此外,大模型在进行角色扮演时,除了进行必要的对话生成外,还需要生成旁白增加想象空间。 对博主这些相比填空更喜欢选项的玩家,给出提问建议也是非常必要的:在建议的基础上修改比自己从 2024-02-10 #探索 #llama
【探索】将BlueLM-7B-Chat转换为标准的GGUF模型 准备模型 运行环境 123456789# conda create -n llamaConvert python=3.10 git -c conda-forge# conda activate llamaConvert# cd D:\llama# git clone --depth=1 https://github.com/ggerganov/llama.cpp.git# cd llama.c 2024-02-04 #探索 #llama
【探索】从零开始训练 GPT 探索整个过程,从在一台搭载1660Ti显卡的笔记本电脑上构建 Tokenizer,定义带有 RoPE 的 Transformer,一直到训练、保存模型和可视化训练过程。沉浸在从零开始训练 GPT 的旅程中,深入了解每一个步骤。跳入深度学习的世界,释放在你的便携1660Ti笔记本上的强大潜能。 2024-01-18 #探索 #llama
【避坑】Azure AI 避免反向薅羊毛 起因 今天收到 Azure 的付费邮件,一看账单,好家伙,24.54$ ,比上个月暴涨 622%,给我 CPU 干烧了。 赶紧去成本分析里按资源分类看上个月的扣费详情,然后就看到两个 10.33$ 的 Container Registry,分别位于我在 Azure AI Studio 里的两个不同项目所在区域。 一顿折腾,发现这个 Container Registry,有一年的免费试用期,但是免费 2024-01-09 #openai
【记录】win10平台6G显存运行Qwen-1.8B Llama.cpp 能 CPU & GPU 环境混合推理,这里记录一下在 windows10 平台上运行 Qwen-1.8B 的过程,显卡是 1660Ti 。 准备模型 安装conda Tun模式(管理员权限) 1234567conda create -n llamaConvert python=3.10 git -c conda-forgeconda activate llamaCo 2024-01-01 #llama