在NAT 服务器跑了一个 tailscale,但是由于是 NAT 机器,不是所有的端口都能用,tailscale 会随机定义一个端口可以用,但是不是特别好。于是找了网上资料,可以自己定义 tailscale 要的开放链接的端口编辑 /etc/default/tailscaled中的 port参数。修改完参数后,运行systemctl restart tailscaled重启 tailscale。
国内的优质有声内容越来越多了。最近一两年有消费比较多的有声内容。除了用 Audiobookshelf 管有声书外,还有两个方案可以用:用prologue配合plex 服务使用emby 和 iOS 上的 iemc 或者影音宝 app 配合。不过这篇主要记录Audiobookshelf 的使用,未完成,待继续完成。安装推荐直接使用 Docker compose 进行安装,没有必要花时间在配置环境上。version: "3.7" services: audiobookshelf: container_name: audiobookshelf image: advplyr/audiobookshelf:latest environment: - TZ=Asia/Shanghai ports: - 13378:80 volumes: - /share/Tuts/Audiobooks:/audiobooks #修改有声书路径 - /share/Tuts/Podcasts:/podcasts #修改播客文件路径 - /share/Do
所有的真相都在你的日志中因为工作涉及管理两个企业内部的财务系统的运维工作,两个业务系统都是面对企业内部员工的,企业有1万多员工,所以日志的数量虽然比不上互联网应用的数量,但多台服务器多个实例,要找日志分析问题时,会有一些头疼,总结了几点经验,用于以后的日志管理工作。TL;DR使用日志聚合工具,将多个节点日志聚合使用Logrotate明确日志的等级,warn,info,debug*与外部系统的交互都需要明确记录*使用TraceID跟踪事件使用日志聚合工具黑匣子(black box),是飞机专用的电子记录设备之一,又称为航空飞行记录器。里面装有飞行数据记录器和舱声录音器,飞机各机械部位和电子仪器仪表都装有传感器与之相连。它能把飞机停止工作或失事坠毁前半小时的有关技术参数和驾驶舱内的声音记录下来,需要时把所记录的参数重新放出来,供飞行实验、事故分析之用。当用户量到达成一定量,业务系统非常关键时,一般会将应用运行多个节点,运行在不同服务器中,做高可用,这样日志会分散在不同的服务器上,如果要查找某条日志,需要在多台服务器中进行查找,非常麻烦,使用日志聚合工具则可以解决这个问题。目前使用Grayl
memos是一个类似flomo的轻量笔记软件,使用golang编写,笔记格式使用Markdown,数据库使用sqlite存储,官方自带Docker image,非常适合自用做简单的笔记或者文本分享服务。官网 https://usememos.com/源码 https://github.com/usememos/memos![memos_demo_op]()安装推荐使用Docker进行安装version: "3.0" services: memos: image: neosmemo/memos:latest container_name: memos volumes: - /var/memos/:/var/opt/memos #修改/var/memos 到常用的文件存储路径,便于定期备份 ports: - 5230:5230自定义的配置1. memos 隐藏 askai 按钮#版本 0.11.2 header > div.w-full.px-2.py-2.flex.flex-col.justify-st
使用Cloudflare Tunnel配合Loon或者Surge安全访问家里的网络内网穿透的方案很多,Cloudflare的ZeroTrust产品中Tunnel的功能也是比较常用的那种,虽然速度不快,但是稳定性还可以。本篇记录一下我如何使用Cloudflare tunnel进行内网穿透。Tunnel的穿透功能主要有两种,一种是public host,即将服务暴露在公网,简单方便添加,默认支持HTTPS访问,应急使用一下还是不错的。另一个是Private network,即私密网络,需要安装Cloudflare WARP客户端(1.1.1.1)才能访问。一、安装Cloudflared访问zerotrust,点击create tunnel 按照其中指引在本地设备例如NAS或者openwrt路由器上安装以下是我的compose文件,供参考version: "3" services: tunnel: container_name: cloudflared-tunnel image: cloudflare/cloudflared network_m
lizhimiao
加油