简介
欢迎关注我的频道,不时发送垃圾消息
或者关注我的 twitter
https://twitter.com/bboysoulcn
-
Streamlining Helm Values Files with YAML Anchors 🚀
在不断进化的 Kubernetes 和 Helm 环境中,高效管理配置文件对于顺利部署至关重要。本文探讨了如何利用 YAML 锚(Anchors)简化 Helm 配置文件,减少冗余,提高文件的可管理性和可读性。
https://dev.to/pczavre/streamlining-helm-values-files-with-yaml-anchors-bpp
-
yazi
💥 用 Rust 编写的超快终端文件管理器,基于异步 I/O。
https://github.com/sxyazi/yazi
很不错,已经安装在nixos中
-
Authenticator
身份验证器在浏览器中生成2步验证代码。
https://github.com/Authenticator-Extension/Authenticator
推荐临时用
-
konfig
https://github.com/corneliusweig/konfig
-
axel
轻量级CLI下载加速器
https://github.com/axel-download-accelerator/axel
我用过最好的多线程下载工具,可以看我的博客
-
Nping
一个用 Rust 编写的带有实时数据和可视化功能的 Ping 工具
https://github.com/hanshuaikang/Nping
-
Kubernetes Best Practices I Wish I Had Known Before
https://www.pulumi.com/blog/kubernetes-best-practices-i-wish-i-had-known-before/
-
soft-serve
charmbracelet/soft-serve 是一个功能强大且可以自行托管的命令行 Git 服务器。
https://github.com/charmbracelet/soft-serve
-
Keeping your Raspberry Pi online with watchdogs
网页主要介绍了如何通过使用硬件和软件看门狗(watchdogs)来保持树莓派在无人值守的情况下稳定在线。
https://dri.es/keeping-your-raspberry-pi-online-with-watchdogs
-
Tutorial: Deploying Llama 3.1 405B on GKE Autopilot with 8 x A100 80GB
网页提供了一份部署 Llama 3.1 405B 模型到 GKE Autopilot 上,使用 8 个 A100 80GB GPU 的详细教程,并且使用了 fp8 精度以减少内存需求,并确保模型能够在单台机器上运行。
https://dev.to/samos123/tutorial-deploying-llama-31-405b-on-gke-autopilot-with-8-x-a100-80gb-a97
欢迎关注我的博客www.bboy.app
Have Fun