在人工智能的星辰大海中,GPT-2(Generative Pre-trained Transformer 2)无疑是一座耀眼的灯塔。它的出现,标志着自然语言生成技术的一次重大飞跃,也为我们今天所熟知的ChatGPT等大型语言模型奠定了坚实的基础。
尽管GPT2推出的时间在2019年,截止目前已经过去了6年了。但是其对于理解transformer和大语言模型具备一定意义。本文将详细的讲解GPT2的模型结构和代码实现,尽管GPT2与现代大模型的结构存在很大差异,但是作为初学者的一个学习样本依旧足够。
随着大型语言模型(LLM)的飞速发展,Hugging Face 已成为开源模型的"GITHUB"。然而,对于希望在本地环境运行这些模型的开发者而言(文件和内容隐私),往往面临网络访问不畅、模型体积庞大、部署流程复杂等挑战。本文旨在提供一个严谨、高效的解决方案,在中国大陆网络环境下,利用镜像顺利下载模型,通过 llama.cpp 进行轻量化量化,并最终使用 Ollama
如果你是 Tailscale 的忠实用户,你一定爱上了它“零配置、安全可靠”的组网体验。它能轻松地将你散落在各地的设备(笔记本、服务器、手机)连接成一个安全的虚拟局域网。
但在某些特殊网络环境下,例如在严格的 NAT 或企业防火墙后,设备之间无法建立直接的点对点(P2P)连接。这时,Tailscale 会优雅地切换到中继模式,通过其官方的 DERP (Detoured Encrypted Routing Protocol) 服务器来转发流量。
最近调试大疆无人机,在进行二次发开时遇到一个Linux的新知识点————USB Gadget框架。网上搜索相关资料后总结出本篇博文。
USB Gadget 框架(USB Gadget Framework)是一个主要在 Linux 内核中使用的软件框架,它允许一个通常作为 USB 主机(Host)的设备(例如嵌入式 Linux 系统、单板计算机)模拟成一个 USB 从设备(Peripheral,也称 Gadget)。
随着DeepSeek-R1大模型的开源,中国国内掀起了新的AI风潮,各行各业纷纷基于开源模型优化自己的服务。腾讯基于自己公众号的海量数据接入deepseek,并迅速抓住机遇开发了腾讯元宝软件以占领市场,知乎也基于自己平台高质量中文问答接入了deepseek。作为科研工作者,也需要抓住机遇合理的利用AI辅助自己的研究,本文将主要从AI平台,论文写作和文献搜寻展开。