-
Elon Musk (@elonmusk)
给大模型用的搜索接口框架 Free Search API 算是个可以用的本地替代,简单来讲这个框架把 Google 的搜索接口包装成了RESTAPI地址:https://github.com/HanzlaJavaid/Free-Search
-
Elon Musk (@elonmusk)
信息推送服务 Bark Server 可以部署到 Cloudflare Workerhttps://github.com/cwxiaos/bark-worker
-
Elon Musk (@elonmusk)
Understanding Generative Engine Optimisation (GEO) 理解生成式引擎优化(GEO)GEO involves tailoring content that is easily interpreted and utilised by AI to generate responses to user queries. Unlike traditional search engines, which rely on off- and on-site SEO, AI-driven search engines don’t. They require information from various sources and provide comprehensive answers, reducing the number of clicks required to access information. This shift necessitates a new approach to content optimisation which is important to AI-Search. GEO 涉及定制内容,使其易于被 AI 解释和利用,以生成对用户查询的回应。与依赖站外和站内 SEO 的传统搜索引擎不同,AI 驱动的搜索引擎不依赖这些。它们需要来自各种来源的信息,并提供全面的答案,减少访问信息所需的点击次数。这种转变需要一种新的内容优化方法,这对 AI 搜索至关重要。The Importance of GEO for Brands 地理位置对品牌的重要性Enhanced Visibility in AI-Driven Searches 在人工智能驱动的搜索中提高可见性With the rise in using tools like ChatGPT and Gemini, brands must ensure their content is optimised for these AI-search platforms. 随着使用 ChatGPT 和 Gemini 等工具的增加,品牌必须确保其内容针对这些 AI 搜索平台进行优化。Traditional search engines have much more noise than just a few years ago. Users are tired of seeing so many ads that they need to click multiple links to find an answer once they pass all the rich Google snippets. 传统搜索引擎比几年前有更多的干扰。用户厌倦了看到如此多的广告,以至于他们需要点击多个链接才能找到答案,这还是在通过所有丰富的 Google 摘要之后。GEO allows your content to be seamlessly integrated into AI-generated responses. This ensures your brand’s information is present and featured in AI replies. Making it easier for users to discover your business in a crowded digital space. GEO 允许您的内容无缝集成到 AI 生成的回答中。这确保您品牌的信息在 AI 回复中得到呈现和展示。使用户在拥挤的数字空间中更容易发现您的业务。Improved User Engagement 提升用户参与度AI-driven search engines prioritise content that delivers clear, concise and thorough answers to user queries. By adopting Generative Engine Optimisation strategies brands can create content that aligns with these preferences, ultimately leading to higher levels of engagement. Users are likelier to trust and interact with a brand that consistently provides valuable, easy-to-understand information that resolves their specific problem. AI 驱动的搜索引擎优先考虑能够为用户查询提供清晰、简洁和全面答案的内容。通过采用生成式引擎优化策略,品牌可以创建与这些偏好相符的内容,最终带来更高水平的参与度。用户更可能信任并与那些能够持续提供有价值、易于理解且能解决其特定问题的信息的品牌互动。Alignment with Evolving Search Behaviours 与不断发展的搜索行为保持一致The way users search for information is changing. People now prefer conversational replies that have direct answers. Unlike traditional search engines, AI search engines are built to do this. Generative Engine Optimisation (GEO) allows brands to align their content with these new patterns ensuring it remains relevant and accessible to their target audiences. As search behaviours shift GEO provides a way to adapt and thrive in the new search environment. 用户搜索信息的方式正在改变。人们现在更喜欢包含直接答案的对话式回复。与传统搜索引擎不同,AI 搜索引擎就是为此而设计的。生成式引擎优化(GEO)使品牌能够将其内容与这些新模式保持一致,确保内容对目标受众保持相关性和可访问性。随着搜索行为的转变,GEO 提供了一种在新搜索环境中适应和蓬勃发展的方式。Implementing GEO Strategies 实施 GEO 策略To ensure your content thrives in the era of AI-driven search engines, focusing on these four areas is essential: 为确保您的内容在人工智能驱动的搜索引擎时代蓬勃发展,专注于以下四个领域至关重要:Content: Start by crafting detailed, in-depth content that addresses your audience’s needs and queries. AI engines prioritise comprehensive answers so ensure your content provides real value. 内容:首先创建详细、深入的内容,满足受众的需求和疑问。人工智能引擎优先考虑全面的回答,因此确保您的内容提供真正的价值。Structured Data: The best-written content can fail without proper structure. AI thrives on clarity. Organise your articles with clear headings and bullet points with logical flow. A well-structured piece helps AI understand your content better and makes it more engaging for human readers.结构化数据:没有适当结构的最佳内容可能会失败。人工智能依赖清晰度。用清晰的标题和要点组织您的文章,保持逻辑流程。结构良好的内容有助于人工智能更好地理解,同时也使人类读者更容易接受。Citations & References: Quality content is built on credible information. Linking to reputable sources to support your claims and provide additional value. AI models rely on well-cited material to generate accurate and trustworthy responses. This step is crucial for inclusion in AI-generated answers.引用和参考:优质内容建立在可信信息之上。链接到可靠来源以支持您的观点并提供额外价值。人工智能模型依赖于有良好引用的材料来生成准确可信的回答。这一步对于被纳入人工智能生成的答案至关重要。Stay Updated: The AI landscape evolves rapidly with new updates and features rolling out regularly. Staying informed about these changes allows you to adapt your strategy and remain competitive.保持更新:人工智能领域发展迅速,新的更新和功能定期推出。了解这些变化使您能够调整策略并保持竞争力。
-
Elon Musk (@elonmusk)
pplx2api 对外提供OpenAi 兼容接口,支持识图,思考,搜索,文件上传,账户轮询,重试……https://github.com/yushangxiao/pplx2api
-
Elon Musk (@elonmusk)
```if xModel != yModel && !conf.RecEnable { var err error bodyBytes, err = sjson.SetBytes(bodyBytes, "model", yModel) if err != nil { return nil, "", "", false, fmt.Errorf("Error setting model in request body: %w", err) } r.Body = io.NopCloser(bytes.NewReader(bodyBytes)) needUpdateLength = true}```
-
Elon Musk (@elonmusk)
``` if model := r.Header.Get("X-Model"); model != "" { xModel = normalizeSpaces(model) } else { xModel = normalizeSpaces(gjson.GetBytes(bodyBytes, "model").String()) }```
-
Elon Musk (@elonmusk)
# AI网关优化策略:快速提取模型信息针对您的AI网关设计问题,确实可以优化模型信息的提取方式,特别是对于大型请求。以下是几种高效方案:## 方案一:HTTP头部传递模型信息```GET /v1/completions HTTP/1.1X-Model-Name: gpt-4Content-Type: application/json```- **优势**:完全避免解析请求体,最快速的方式- **实现**:要求客户端在请求头中添加模型信息## 方案二:URL路径包含模型信息```POST /v1/models/gpt-4/completions HTTP/1.1```- **优势**:从URL路径直接获取模型,无需解析请求体- **实现**:修改API路由设计## 方案三:部分解析/流式解析```gofunc extractModelName(r *http.Request) (string, error) { // 只读取前1KB内容进行解析 buffer := make([]byte, 1024) n, _ := r.Body.Read(buffer) // 使用正则表达式提取model字段 re := regexp.MustCompile(`"model"\s*:\s*"([^"]+)"`) matches := re.FindSubmatch(buffer[:n]) if len(matches) >= 2 { return string(matches[1]), nil } // 恢复请求体供后续处理 r.Body = io.NopCloser(io.MultiReader(bytes.NewReader(buffer[:n]), r.Body)) return "", errors.New("model not found")}```- **优势**:无需客户端改动,适合大多数JSON格式请求- **实现**:只读取请求开头部分,找到模型后停止解析## 方案四:专用JSON解析器```gofunc quickExtractModel(r *http.Request) (string, error) { decoder := json.NewDecoder(r.Body) // 查找顶层的"model"字段 for decoder.More() { token, _ := decoder.Token() if key, ok := token.(string); ok && key == "model" { modelToken, _ := decoder.Token() if modelName, ok := modelToken.(string); ok { // 重置请求体 // ... return modelName, nil } } decoder.Skip() // 跳过其他字段的值 } return "", errors.New("model not found")}```- **优势**:语义解析更准确,处理嵌套JSON结构- **实现**:专注于寻找特定字段,忽略其他内容
-
Elon Musk (@elonmusk)
# Gemini API 集成方案您提供的代码正在处理不同API的认证和路径映射,现在需要兼容Gemini API的调用格式。查看您提供的curl请求,Gemini API有以下特点:1. 使用查询参数(`?key=`)进行身份验证,而不是Authorization头2. 请求路径包含`:generateContent`这样的动作后缀3. 包含`system_instruction`和`contents`的请求体结构## 修改建议在`generativelanguage.googleapis.com`的case中添加对Gemini API的处理:```gocase "generativelanguage.googleapis.com": // 检查URL中是否已有key参数 queryParams := req.URL.Query() if queryParams.Get("key") == "" { // 没有key参数时添加到查询字符串 queryParams.Set("key", key.SecretKey) req.URL.RawQuery = queryParams.Encode() } // 处理路径映射 if newPath, exists := conf.PathMappers[4][req.URL.Path]; exists { req.URL.Path = newPath } else if strings.Contains(req.URL.Path, ":generateContent") { // 特别处理generateContent端点 newPath := normalizePath(req.URL.Path) conf.PathMappers[4][req.URL.Path] = newPath req.URL.Path = newPath } else if strings.Contains(req.URL.Path, "chat") { newPath := normalizePath(req.URL.Path) conf.PathMappers[4][req.URL.Path] = newPath req.URL.Path = newPath } // 某些Gemini端点可能还是需要Authorization头 if !strings.Contains(req.URL.RawQuery, "key=") { req.Header.Set("Authorization", "Bearer "+key.SecretKey) }```## 注意事项1. 这个实现保留了原有处理逻辑,同时添加了对查询参数认证的支持2. 增加了对`:generateContent`路径模式的处理3. 实现了认证方式的双重兼容 - 既支持查询参数也支持Authorization头4. 如果URL中已经有key参数,则不会重复添加如果您的应用需要对Gemini API请求/响应格式进行转换以匹配内部格式,可能还需要添加中间件处理逻辑。
-
Elon Musk (@elonmusk)
Claude vim plugin for AI pair programming - a hacker's gateway to LLMsClaude vim 插件用于 AI 结对编程 - 黑客通往 LLMs 的门户https://github.com/pasky/claude.vim
-
Elon Musk (@elonmusk)
生成式AI導論。晚上一口气看了 10 节课,讲得太好了,把之前自己零碎学到的一些概念都串起来了,形成了相对系统的理解。理解生成式 AI 的原理,对用好 AI 工具,以及开发 AI 应用都会非常有帮助。因为本质上,大家比的就是认知。https://youtube.com/watch?v=AVIKFXLCPY8&list=PLJV_el3uVTsPz6CTopeRp2L2t4aL_KgiI&ab_channel=Hung-yiLee
-
Elon Musk (@elonmusk)
一份精心整理的大语言模型在不同领域的实际应用集合:Awesome LLM Apps。涵盖了客服、法律、健康、旅游、数据分析等场景的智能体,以及结合 RGA(检索增强生成)和具备记忆功能的应用。GitHub:https://github.com/Shubhamsaboo/awesome-llm-apps此外,还收集了 LLM 微调、高级工具和框架使用教程等。并提供详细介绍,方便大家学习及部署运行。
-
Elon Musk (@elonmusk)
分享一本专注于大语言模型实践应用的开源书籍:中文版《Large Language Model in Action》。通过丰富的工具介绍和具体案例实践,带大家快速上手大模型应用开发,并在实际项目中灵活运用各类开发框架和工具。在线阅读:https://github.com/wangwei1237/LLM_in_Action内容分为三大部分:1、基本概念篇介绍大语言模型相关的核心概念和基础知识,帮助大家建立对大模型的基本认知。2、相关工具篇讲解大模型开发中常用的工具框架,如 LangChain、Semantic Kernel,Langflow、AutoGen 等。3、具体实践篇通过实际案例展示大模型的应用开发过程,提供可复现的开发经验和最佳实践指南。如果大家想要了解并实践大模型应用开发,这本书比较适合你,但该中文版还没有完全翻译完,感兴趣的可以去看英文版。
-
Elon Musk (@elonmusk)
https://programmingdigest.net编程文摘
-
Elon Musk (@elonmusk)
终端上打开 EPUB 格式的电子书阅读,支持记住上次阅读的文件、代码高亮、自定义调整文本行高宽度等。GitHub:https://github.com/Ray-D-Song/goread除此之外,还支持打开图片,以及 vim 风格的按键绑定,便捷的操作滑动分页阅读。
-
Elon Musk (@elonmusk)
一个去中心化、无服务器的匿名聊天浏览器插件:WebChat。在任何网站上,无需注册,一键开启与他人聊天,利用 WebRTC 端到端加密,所有聊天数据保存到本地,安全隐私。GitHub:https://github.com/molvqingtai/WebChat非常适合有即时交流的需求场景,如浏览到有趣的新闻或技术时,与同一浏览的人发起聊天讨论。
-
Elon Musk (@elonmusk)
一款实用的文件转 Markdown 开源工具:serverless-markdown-convertor。基于 Cloudflare 构建,完全免费且无需服务器,支持多种文件格式,轻松一键转换为 Markdown 格式。GitHub:https://github.com/xxnuo/serverless-markdown-convertor主要特性:支持 PDF、图片、HTML、XML、Office 文档等多种文件格式;基于 Cloudflare Worker,无需服务器即可部署;可设置密码保护,防止他人滥用;自定义域名支持,部署后即可拥有专属转换工具。在 README 文件中,提供了详细的部署方法,有需要的也可以跟着教程免费部署到 Cloudflare 分享使用。
-
Elon Musk (@elonmusk)
RF-DETR:开源最佳实时识别模型实时识别画面中的物体,准确率和速度优于YOLO系列模型,开源可商用。官方介绍:https://blog.roboflow.com/rf-detr/Github:https://github.com/roboflow/rf-detr
-
Elon Musk (@elonmusk)
Open WebUl 和 LibreChat 平替,可 Docker 部署,实测发现 Chat 模式下只支持 Ollama 和 ComfyUI ,但智能编辑器支持 API 调用,交互界面流畅顺滑,插眼等后续更新。Clara https://github.com/badboysm890/ClaraVerse
-
Elon Musk (@elonmusk)
网页版文件转 Markdown 转换器 https://github.com/xxnuo/serverless-markdown-convertor
-
Min Yi (@2xgSpBUZHMXHjNiwS)
个人网站:https://webfem.com 欢迎串门
-
Elon Musk (@elonmusk)
Cloudflare 最新功能,支持将多种格式的文件(见图一)转化成LLM友好的Markdown格式,你可以用图二的方式直接调用https://developers.cloudflare.com/workers-ai/markdown-conversion/
-
Elon Musk (@elonmusk)
基于多模态大语言模型的 PDF 转 Markdown 工具,高质量实现文档结构化转换,可将任何 PDF 文档转换为格式整齐的 Markdown 文件。MarkPDFDown https://github.com/jorben/markpdfdown
-
Elon Musk (@elonmusk)
只需输入一个网址,http://same.new 直接帮你复刻整个网页!不仅是HTML/CSS,而是完整结构、组件、交互逻辑,甚至自动部署!😱我亲测了一次,AI 真的把整个网页无缝克隆,直接部署上线
-
Elon Musk (@elonmusk)
播客 https://earsonme.com
-
Elon Musk (@elonmusk)
```curl https://api.anthropic.com/v1/messages \ -H "content-type: application/json" \ -H "x-api-key: $ANTHROPIC_API_KEY" \ -H "anthropic-version: 2023-06-01" \ -H "anthropic-beta: computer-use-2025-01-24" \ -d '{ "model": "claude-3-7-sonnet-latest", "max_tokens": 1028, "tools": [ { "type": "computer_20250124", "name": "computer", "display_width_px": 1024, "display_height_px": 768, "display_number": 1 }, { "type": "text_editor_20250124", "name": "str_replace_editor" }, { "type": "bash_20250124", "name": "bash" } ], "messages": [ { "role": "user", "content": "Save a picture of a cat to my desktop." } ], "thinking": { "type": "enabled", "budget_tokens": 1024 } }'```
-
Elon Musk (@elonmusk)
Anthropic cache 计费 https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching?q=cache_creation_input_tokens#how-to-implement-prompt-caching
-
Elon Musk (@elonmusk)
```[Client] │ ˅[API Gateway] → 快速校验 → 有效请求 → 业务处理 │ │ │ ˅ │ [Analysis Queue] ← Worker Pool │ (100缓冲+重试) │ ˅ 错误响应(带智能提示)```
-
Elon Musk (@elonmusk)
```import shelveimport os# 创建/连接数据库db = shelve.open('files_shelf')# 添加文件def add_file(file_path): name = os.path.basename(file_path) with open(file_path, 'rb') as f: db[name] = f.read()# 获取文件def get_file(file_name): return db.get(file_name)# 使用完后关闭# db.close()```
-
Elon Musk (@elonmusk)
在云原生技术领域,Solo和Envoy有密切关系:Solo.io是一家专注于云原生技术的公司,它的主要产品围绕Envoy代理构建。Envoy是一个开源的高性能服务代理,最初由Lyft开发,现在是Cloud Native Computing Foundation (CNCF)的项目。Solo.io为Envoy提供了多种扩展和企业级解决方案,包括:Gloo Edge: 基于Envoy的API网关Gloo Mesh: 服务网格管理平台,使用Envoy作为数据平面WebAssembly Hub: 用于扩展Envoy功能的工具简单来说,Solo.io是一家公司,专门开发和提供基于Envoy代理的企业级产品和工具。
-
Elon Musk (@elonmusk)
每个互联网企业都至少需要3个数据库:一个跨多可用区分布式数据库用来保证核心数据安全和高可用,一个高性能分析型数据库用来支持商业决策,一个支持无痛部署扩容的serverless数据库用来支撑新业务快速上线
-
Elon Musk (@elonmusk)
一个适合学习英语的实用网站推荐:engoo网站里面的materials板块提供了很精致的教材课程,适合各个级别英语学习者,你可以按照等级和喜好来搜索相关的学习材料,提供音频,图片,习题等等配合学习,而且每天还更新带音频习题的实时分级新闻帮助你提升英语学习。https://engoo.com/app/materials/en
-
Elon Musk (@elonmusk)
将网络搜索能力集成到AI助手中的一个MCP服务:ReActMCP Web Search,相当于给AI装了个搜索引擎,可以实时查找最新的内容它基于Exa API执行基本和高级网络搜索,高级搜索比如限制搜索的网站范围、指定日期范围、包含特定文字等搜索结果支持以Markdown格式返回,包括标题、链接、发布日期和内容摘要等https://github.com/mshojaei77/ReActMCP
-
Elon Musk (@elonmusk)
Claude 3.7 写 PPT、复杂资料可视化网页或者超好看的 SVG,快速了解 Manus 带起最火的 MCP 协议🔥之前放的是演示链接下面的调好的提示词、代码、逻辑还有实际效果全开源 💥 👉 https://refly.ai/share/canvas/can-kedetsr6fsogqh8x9xc3222p
-
Elon Musk (@elonmusk)
Proxy Vs reverse proxyA forward proxy is a server that sits between user devices and the internet. A forward proxy is commonly used for: - Protect clients- Avoid browsing restrictions- Block access to certain contentA reverse proxy is a server that accepts a request from the client, forwards the request to web servers, and returns the results to the client as if the proxy server had processed the request. A reverse proxy is good for:- Protect servers- Load balancing- Cache static contents- Encrypt and decrypt SSL communications--代理 Vs 反向代理正向代理是位于用户设备和互联网之间的服务器。正向代理通常用于:- 保护客户- 避免浏览限制- 屏蔽对特定内容的访问反向代理是一种接受客户端请求,将请求转发给 Web 服务器,并将结果返回给客户端的服务器,就好像是代理服务器自己处理了该请求一样。反向代理的优点包括:- 保护服务器- 负载均衡- 缓存静态内容- 加密和解密 SSL 通信
-
Elon Musk (@elonmusk)
"'完美'是'足够好'最大的敌人。"足够好通常就足以赢得市场。做难而正确的事 • 快速失败,增加成功的可能性
-
Elon Musk (@elonmusk)
海外虚拟信用卡开卡平台推荐 Top10 虚拟数字银行卡汇总https://topstip.com/best-virtual-credit-card/
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
We’ve put together a guide on how to do RAG on PDFs using file search in the new Responses API: https://cookbook.openai.com/examples/file_search_responses我们整理了一份指南,介绍如何使用新的 Responses API 中的文件搜索功能对 PDF 进行 RAG(检索增强生成)
-
Elon Musk (@elonmusk)
Cohere 发布 Command A 模型:111B 性能与效率的新标杆核心性能优势Command A 模型在性能上与 GPT-4o 和 DeepSeek-V3 相当或更优,同时具备显著的效率优势:- 人工评估表现:在企业任务、STEM 领域和编程任务的人工评估中,Command A 与竞争对手相比表现优秀- 基准测试成绩:在包括 MMLU、MATH、IFEval 等学术基准测试,BFCL、Taubench 等代理基准测试,以及 MBPPPlus、SQL 和 RepoQA 等编码基准测试中展现了强大性能效率与部署优势Command A 的一个关键亮点是其卓越的效率:- 硬件需求低:只需2个 GPU(A100 或 H100)即可部署,而竞争对手通常需要32个- 高吞吐量:每秒可生成高达156个 token,比 GPT-4o 快1.75倍,比 DeepSeek-V3 快2.4倍- 部署成本:私有部署比基于 API 的访问可节省高达50%的成本企业级特性Command A 针对企业需求设计,具备多项关键特性:- 长上下文:支持 256K 上下文长度(是大多数领先模型的2倍)- 高级 RAG:具备可验证引用的检索增强生成能力- 多语言支持:支持全球23种主要语言,且在多语言企业任务中表现优于 DeepSeek-V3- 阿拉伯语优势:在阿拉伯语方言识别和回应方面显著优于 GPT-4o 和 DeepSeek-V3- 代理能力:可与 Cohere North 平台集成,支持企业级 AI 代理功能可用性与定价- 当前可用性:已在 Cohere 平台上线,Hugging Face 可用于研究目的,即将在主要云提供商上推出- 定价结构:输入 token $2.50/百万,输出 token $10.00/百万
-
Elon Musk (@elonmusk)
DeepSeek-V3/R1 满血版 671B 全参数微调的开源解决方案,包含从训练到推理的完整代码和脚本,以及实践中积累一些经验和结论,由中国科学院自动化研究所和中科闻歌联合推出。https://github.com/ScienceOne-AI/DeepSeek-671B-SFT-Guide/blob/main/README_zh.md
-
Elon Musk (@elonmusk)
Introducing https://same.devClone any website with pixel perfect accuracyOne-shots Nike, Apple TV, Minecraft, and more!介绍 Same.dev以像素级精确度克隆任何网站一次性机会:Nike、Apple TV、Minecraft 等等!
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
咱们这纯 Rust 实现的 AI Chat 不也挺好吗? 本地大模型 / 云端模型都支持,还支持本地 agent。 https://github.com/moxin-org/moly
-
Elon Musk (@elonmusk)
Refly 正式发布 0.4.0,让 AI Native 内容创作引擎更近一步,你现在可以在一处工作空间完成上下文的处理、Claude 3.7 thinking 交互,还能生成海报、PPT、文档或酷炫的网页最重要的是,这一切都是开源的 https://github.com/refly-ai/refly欢迎加入我们!一起构建这个时代最伟大的 AI Native 创作引擎❤️
-
Elon Musk (@elonmusk)
NeatChat 基于 NextChat 的一个全新的版本,并进行了多项优化。Main 分支 - 专注UI优化和功能创新Preview 分支 - 作为main分支的试验田和预览通道 Mini 分支 - NextChat 框架的轻量级精简维护版https://github.com/tianzhentech/NeatChat
-
Elon Musk (@elonmusk)
https://release.infinilabs.com/analysis-ik/stable/
-
Elon Musk (@elonmusk)
# 跨域问题与XMLHttpRequest解决方案解析这句话描述了一个前端开发中常见的跨域资源共享(CORS)问题的解决方法。我来详细解释:## 什么是跨域问题跨域问题发生在网页尝试请求与自身不同源(不同域名、协议或端口)的资源时。浏览器的同源策略出于安全考虑会阻止这类请求。## fetch与XMLHttpRequest的区别- **fetch**: 现代JavaScript API,语法简洁,基于Promise- **XMLHttpRequest(XHR)**: 较早的API,更传统但功能完备## 为什么在这个情况下XMLHttpRequest解决了问题而fetch没有可能的原因包括:1. **请求模式差异**:XMLHttpRequest在某些情况下的默认行为与fetch不同,特别是在处理cookies和认证信息时2. **服务器配置限制**:服务器端可能配置了允许XHR请求但限制了fetch请求的头部3. **特定的CORS配置**:可能在该环境中,XHR的withCredentials属性配置更适合现有的后端CORS设置4. **预检请求处理**:fetch对某些请求会自动发送OPTIONS预检请求,而服务器可能未正确处理这些请求这表明在特定的跨域环境中,有时传统技术反而能解决问题,尽管fetch通常被认为是更现代的方案。
-
Elon Musk (@elonmusk)
一个精心整理的 MCP 服务器资源列表:Awesome MCP Servers。这个项目收集了各种实现 MCP 协议的服务器,让 AI 模型能够安全地与本地和远程资源交互,扩展 AI 能力范围。GitHub:https://github.com/appcypher/awesome-mcp-servers分类涵盖文件系统、数据库、搜索引擎等 20 多个领域,并包含服务器管理工具。
-
Elon Musk (@elonmusk)
How I would do authhttps://pilcrowonpaper.com/blog/how-i-would-do-auth/
-
Elon Musk (@elonmusk)
动画叫Flow Animation,drawio就可以画,官网用介绍,参见https://drawio.com/doc/faq/connector-animate
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
🔥 Turn entire websites into LLM-ready markdown or structured data. Scrape, crawl and extract with a single API.https://firecrawl.dev
-
Elon Musk (@elonmusk)
分享一个AI终端工具 gem-assist。这个工具可以在命令行搜索(使用DuckDuckGo),让本地文件与AI互动。获取系统信息等等。地址:https://github.com/Fus3n/gem-assist
-
Elon Musk (@elonmusk)
# Rust 如何解决并发读写锁问题在 Golang 中,开发者需要手动管理并发读写锁(如使用 `sync.RWMutex`),这可能导致忘记加锁、解锁或死锁等问题。相比之下,Rust 通过多种机制在编译时就解决了大部分并发安全问题:## 1. 所有权系统和借用检查器Rust 最独特的特性是其所有权系统,它在编译时强制执行以下规则:- 同一时刻,一个数据只能有一个所有者- 对于同一数据,在同一时间: - 要么有多个不可变引用(读取) - 要么只有一个可变引用(写入)这些规则在编译时就能防止数据竞争。```rustfn main() { let mut data = vec![1, 2, 3]; // 可以同时有多个不可变引用 let reader1 = &data; let reader2 = &data; // 编译错误:不能同时有可变和不可变引用 // let writer = &mut data; // 如果取消注释,编译会失败 println!("{:?} {:?}", reader1, reader2); // reader1和reader2不再使用后,可以创建可变引用 let writer = &mut data; writer.push(4);}```## 2. 线程安全的抽象当需要在线程间共享数据时,Rust 提供了几种安全抽象:### Mutex 和 RwLock```rustuse std::sync::{Mutex, RwLock};use std::thread;fn mutex_example() { let counter = Mutex::new(0); // 锁的获取和释放是通过RAII模式自动管理的 { let mut num = counter.lock().unwrap(); *num += 1; // 离开作用域时自动释放锁 }}fn rwlock_example() { let data = RwLock::new(vec![1, 2, 3]); // 读锁允许多个并发读取 { let readers = data.read().unwrap(); println!("{:?}", *readers); } // 读锁自动释放 // 写锁保证独占访问 { let mut writer = data.write().unwrap(); writer.push(4); } // 写锁自动释放}```### Arc 用于线程间共享所有权```rustuse std::sync::{Arc, Mutex};use std::thread;fn main() { // Arc提供线程安全的引用计数 let counter = Arc::new(Mutex::new(0)); let mut handles = vec![]; for _ in 0..10 { let counter = Arc::clone(&counter); let handle = thread::spawn(move || { let mut num = counter.lock().unwrap(); *num += 1; }); handles.push(handle); } for handle in handles { handle.join().unwrap(); } println!("Result: {}", *counter.lock().unwrap());}```## 3. Send 和 Sync traitRust 使用两个特殊的 trait 来确保类型的线程安全性:- `Send`:表示类型的所有权可以安全地在线程间传递- `Sync`:表示类型可以被多个线程同时引用编译器会自动检查这些 trait 的实现,防止不安全的并发访问。## 总结Rust 的优势在于将大部分并发安全问题转移到了编译时检查,而不是运行时。虽然这使得 Rust 代码有时更难编写(需要满足编译器的严格要求),但它能够在编译阶段就防止数据竞争和死锁等并发问题,提供了"零成本抽象"的并发安全保证。
-
Elon Musk (@elonmusk)
# Nginx Ingress Controller 超时分析是的,您的配置中存在默认的 60 秒读写超时。## 已配置的超时相关设置:- `proxy-connect-timeout: "10"` - 连接上游服务器的超时时间为10秒- `upstream-keepalive-timeout: "75"` - 上游连接保持活跃的时间为75秒## 缺失的超时设置:- **proxy-read-timeout** - 未配置,使用默认值 60 秒- **proxy-send-timeout** - 未配置,使用默认值 60 秒这两个参数控制了:- 从上游服务器读取响应的超时时间- 向上游服务器发送请求的超时时间对于长时间运行的请求,如果处理时间超过60秒,确实会因为这些默认超时而中断连接。## 建议如果您需要支持超过60秒的请求处理时间,可以添加以下配置:```yamlproxy-read-timeout: "300" # 或您需要的其他值proxy-send-timeout: "300" # 或您需要的其他值```
-
Elon Musk (@elonmusk)
开源免费版 Perplexity + Deep search 可自部署,效果很赞!http://git.new/scira开源免费版 Perplexity + Deep searchDeployable, with great results! http://git.new/scira
-
Elon Musk (@elonmusk)
收录了将近百款,可以直接在浏览器上玩的经典 HTML 5 游戏,比如 2048、俄罗斯方块、贪吃蛇等。GitHub:https://github.com/BinBashBanana所有游戏的代码均已打包好并开源,可进行魔改增加关卡或难度。
-
Elon Musk (@elonmusk)
一个超低资源消耗超快的离线翻译服务器,仅需 CPU + 1G 内存即可运行,无需 GPU。单个请求平均响应时间 50ms翻译质量与 Google 翻译相当,部署之后可以接沉浸式翻译插件。下面是地址👇https://github.com/xxnuo/MTranServer
-
Elon Musk (@elonmusk)
专项扣除有两种申报方式:1.扣缴义务人申报:公司帮你申报,公司每个月帮你缴纳个税的时候,用专项扣除抵消掉了部分个税,相当于每个月返还2.年度自行申报:个人自己申报,公司每个月按照你的工资全额帮你缴纳个税,你在第二年三月的时候,登录个税 APP 申请去年一年的个税专项扣除,税局会根据你一年所得减去专项扣除额度给你退税,相当于一年一次性返还如果选择了 1.扣缴义务人申报,那么你在申请年度汇总正常来说是为 0 的为什么有人要补税:1.你在去年换过工作,新公司给你缴个税的时候,不知道你以前公司给你发了多少工资了,所以新公司给你算个税的时候从 0 开始累计的,你在新公司缴的税更少。但是税局是知道你全年所得额的,拉流水出来一算,发现你新公司给你少缴了,会让你补缴2.除了你正常上班外,还有其他收入,被税局查到了没有缴税。比如接私活,有记录在案的房租收入。这些可以在个税 APP 的收入纳税明细里可以查到
-
Elon Musk (@elonmusk)
# 面向大模型的搜索引擎优化:技术演进与策略革新随着大型语言模型(Large Language Models, LLMs)在搜索引擎领域的深度应用,传统搜索引擎优化(SEO)范式正经历着颠覆性变革。本文系统梳理了大模型技术对搜索生态的重构路径,从语义理解机制、内容生成范式、用户交互模式等维度展开分析,揭示面向大模型的SEO优化核心策略与技术实现路径。## 一、大模型技术对搜索生态的重构### 1.1 语义理解机制的范式转移传统搜索引擎依赖关键词匹配与链接分析算法,其核心在于建立词汇表面对应关系。而基于Transformer架构的大模型通过自注意力机制实现了深度语义建模,能够解析查询语句的隐含意图与上下文关联。研究表明,GPT-4类模型在复杂查询意图识别准确率较传统BM25算法提升62%[1],这种能力突破使得搜索引擎从"词汇匹配"转向"意图理解"阶段。在此技术背景下,SEO优化需重构内容生产逻辑。例如,针对"新能源汽车续航焦虑解决方案"的查询,传统策略侧重"新能源"、"续航"等关键词密度优化,而大模型更关注解决方案的技术原理、用户场景适配性等深层语义特征。这就要求内容创作者构建知识图谱式的信息网络,而非离散的关键词集合[3]。### 1.2 检索增强生成的技术融合检索增强生成(Retrieval-Augmented Generation, RAG)技术将大模型的生成能力与外部知识库实时检索相结合,形成动态知识更新机制。实验数据显示,引入RAG架构后,大模型生成内容的时效性误差率降低78%,事实准确性提升54%[2]。这种技术融合使得搜索引擎能够即时整合最新行业数据、学术研究成果等动态信息源。对SEO实践的启示在于,网站内容需建立结构化知识体系。例如,技术文档应采用层级化标题体系(H1-H4),关键参数使用表格规范呈现,研究结论标注明确数据来源。这种结构化处理可使RAG系统更高效提取信息片段,提升内容被检索引用的概率[7]。## 二、大模型驱动的SEO核心策略### 2.1 实体对象优化体系大模型搜索摒弃了传统关键词匹配机制,转向基于实体对象(Entity)的语义网络分析。Google研究显示,采用实体优化的网页在AI搜索中的曝光率提升3.2倍[6]。实体优化需构建包括核心实体、属性关系、应用场景的三维矩阵:- **核心实体识别**:使用命名实体识别(NER)技术标注专业术语、品牌名称、技术参数等关键要素。例如在半导体领域,需明确标注"FinFET"、"GAA晶体管"等工艺节点特征。- **属性关系建模**:通过知识图谱建立实体间的技术关联。如"5G通信"与"毫米波频段"的覆盖特性、"时延指标"的应用场景约束等。- **场景适配优化**:针对不同用户群体构建场景化内容模块。B端客户侧重技术参数对比,C端用户关注使用体验评测,需建立差异化的内容表达体系[3]。### 2.2 生成引擎优化(GEO)方法论面向大模型的生成引擎优化(Generative Engine Optimization)强调内容可解析性与信息密度。DeepSeek实验表明,采用GEO标准的网页被AI摘要引用的概率提升217%[6]。具体实施框架包括:1. **信息结构化标准** - 技术文档采用"问题描述-原理分析-实验验证-应用案例"的逻辑链条 - 产品说明遵循"核心参数-功能特性-使用场景-竞品对比"的模块化架构 - 研究论文摘要包含"创新点-方法论-实证结果-理论贡献"四要素模板2. **语义增强技术** - 使用BERT等模型进行段落语义向量化,确保内容主题集中度>0.85 - 关键结论采用"总-分-总"结构,首段明确核心观点,末段进行技术展望 - 复杂概念配备可视化解释,如图表、公式推导(LaTeX格式)、三维模型等```python# 语义集中度计算示例from sentence_transformers import SentenceTransformermodel = SentenceTransformer('paraphrase-multilingual-mpnet-base-v2')def calculate_semantic_coherence(text): sentences = text.split('. ') embeddings = model.encode(sentences) centroid = np.mean(embeddings, axis=0) distances = [np.linalg.norm(embeddings[i] - centroid) for i in range(len(embeddings))] return 1 - (np.std(distances) / np.mean(distances))```### 2.3 多模态内容优化Google多模态模型PaLM-E的实验表明,图文结合内容在AI搜索中的停留时长提升58%[5]。优化策略包括:- **视觉语义对齐**:图像ALT文本需描述技术细节而非简单标注,如"Fig.3: 磷酸铁锂电池充放电曲线,显示在2C倍率下循环500次容量保持率>92%"- **跨模态知识关联**:视频内容配备时间戳索引,将关键帧与对应技术讲解文字锚定- **交互式内容设计**:嵌入可操作的三维模型(如GLB格式),允许用户旋转查看产品结构细节## 三、AI生成内容(AIGC)的优化平衡### 3.1 质量管控体系虽然GPT-4等模型可快速生成技术文档,但实验显示完全AI生成的内容用户跳出率高达64%[4]。需建立"生成-校验-增强"的质量控制闭环:1. **事实核查机制** - 关键技术参数设置置信区间验证,如"热效率46%±1.5%"需标注测试标准(GB/T 19055-2023) - 研究结论追溯原始文献,建立DOI链接索引系统 - 行业数据注明统计口径与时间范围2. **知识增强策略** - 领域专业术语配备扩展阅读模块,使用折叠式UI设计 - 复杂理论推导插入交互式公式解析器,支持逐步展开计算过程 - 最新技术动态设置更新日志,标注修订日期与变更内容### 3.2 人机协同创作百度的AIGC优化实验表明,人机协同内容较纯人工创作效率提升3倍,质量评分提高22%[8]。最佳实践包括:- **提示工程优化**:构建领域特定的Prompt模板库,如: ```markdown [技术文档生成指令] 角色:首席工程师 任务:撰写{技术名称}原理说明 要求: 1. 受众:具备本科工程背景的读者 2. 深度:数学推导至二阶偏微分方程层面 3. 格式:Markdown with LaTeX公式 4. 参考文献:近三年顶刊论文≥3篇 ```- **迭代优化机制**:设置"生成-专家评审-模型微调"的强化学习循环,持续提升输出质量- **个性风格注入**:通过LoRA等技术注入企业特定的技术表达风格,保持品牌一致性## 四、动态搜索生态的持续适应### 4.1 算法预测模型建立搜索引擎算法更新预测系统,整合以下特征:- 历史算法变更日志(时间、影响领域、技术方向)- 行业技术演进趋势(如多模态、具身智能等)- 用户行为模式变迁(语音搜索占比、AR搜索增长率)使用LSTM神经网络构建预测模型,提前3-6个月预判算法调整方向,准确率达82%[5]。例如预测到视觉搜索权重提升时,提前优化产品三维模型资源库。### 4.2 个性化搜索适配阿里云实验显示,个性化搜索可使转化率提升39%[1]。实施路径包括:1. **用户画像构建** - 显性特征:行业属性、技术职称、设备类型 - 隐性特征:知识水平(通过交互问题复杂度判断)、决策阶段(调研/比价/采购)2. **动态内容呈现** - 研发人员访问时突出技术参数与实验数据 - 管理人员访问时强调ROI分析与实施路径 - 使用CSS媒体查询实现设备自适应布局3. **交互模式优化** - 语音搜索场景采用短句结论前置的"倒金字塔"结构 - AR搜索场景嵌入三维空间标注信息(USDZ格式) - 多轮对话场景设置上下文记忆模块## 五、前沿技术演进与战略布局### 5.1 开源模型生态的机遇Meta的LLaMA模型迭代显示,开源社区的技术突破周期较闭源系统缩短40%[5]。企业需建立:- 开源模型微调框架:使用QLoRA技术在消费级GPU实现领域适配- 异构模型集成平台:组合视觉、语音、文本模型构建多模态处理流水线- 社区贡献激励机制:通过GitHub星标、PR合并等指标量化技术投入### 5.2 认知架构的颠覆创新Google的"思维链"(Chain-of-Thought)技术使大模型推理准确率提升35%[6]。SEO优化需前瞻性布局:- 知识溯源系统:为每个技术结论标注推导路径,形成可验证的证据链- 反事实推理内容:创建"假设分析"模块,探讨技术路线的替代可能性- 认知负荷优化:采用信息渐进披露设计,复杂概念分层次展开## 结论面向大模型的SEO优化已形成包含语义理解增强、实体网络构建、多模态融合、个性化适配的技术体系。企业需建立"数据-算法-体验"的三角优化模型:以结构化知识库支撑大模型检索,通过生成引擎优化提升内容引用率,最终构建跨模态、强交互的智能搜索体验。未来竞争将聚焦开源生态整合能力与认知架构创新水平,建议技术团队持续跟踪RAG、MoE等前沿方向,在动态搜索生态中建立技术护城河。
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
-
Elon Musk (@elonmusk)
一个简单的模型上下文协议(MCP)案例:Email Sending MCP。利用 Resend 的 API,实现了在 Cursor 或 Claude 上撰写完邮件内容后一键发送,无需再复制粘贴内容。GitHub:https://github.com/ykhli/mcp-send-email
-
Elon Musk (@elonmusk)
一个现代化的在线简历编辑器:Magic Resume,让创建专业简历变得简单有趣。基于 Next.js 构建,支持实时预览和自定义主题,带有流畅的动画效果,可自定义主题。GitHub:https://github.com/JOYCEQL/magic-resume除此之外,还可以实时预览、自动保存,以及导出 PDF 文件等功能。
-
Elon Musk (@elonmusk)
DeepSeek:豆丁,淘豆、博客园、搜狐等各种奇怪网址腾讯元宝:公众号、腾讯网、搜狐、网易等百度:CSDN、51CTO、简书、不知名博客等相比之下还是 grok-3,o1 靠谱,基本都是 github、reddit 和各种技术 blog。
-
Elon Musk (@elonmusk)
R2Uploader🥳https://github.com/jlvihv/R2Uploader
-
Elon Musk (@elonmusk)
还在为 Whois 查询发愁?试试这个免费开源神器!Next-Whois-UI 提供简介好用界面,支持域名/IPv4/IPv6/ASN/CIDR 查询,功能强大又好用!快来体验吧 🔗https://github.com/zmh-program/next-whois-ui
-
Elon Musk (@elonmusk)
讲讲 cloudflare 前置https://1024.day/d/1916
-
Elon Musk (@elonmusk)
Crypto 世界只有 4 条公链:1、Bitcoin2、Ethereum3、Solana4、Tron
-
Elon Musk (@elonmusk)
一款辅助轻松阅读论文的开源工具:http://arXiv-txt.org。只需将论文链接中的 "http://arxiv.org" 替换为 "http://arxiv-txt.org",即可获得一份摘要以及论文 PDF 文件内容。GitHub:https://github.com/jerpint/arxiv-txt支持快速部署到 Vercel,并提供完整 API 接口使用。 https://pic.x.com/KK1KqnfJOG
-
Elon Musk (@elonmusk)
一款新出的PDF文本提取工具:olmOCR,可以从PDF和文档图像中提取干净且结构化的纯文本可以处理包含复杂布局、表格、方程式以及手写文档处理100万页PDF的成本约为190美元,相当于GPT-4o 1/32的成本 以Markdown格式输出文本,可以准确处理方程、表格和手写内容,能在复杂的多栏文档布局中保持正确的阅读顺序性能优于Marker、MinerU以及GOT-OCR 2.0等https://github.com/allenai/olmocr
-
Elon Musk (@elonmusk)
一个基于 AI 的趋势发现和内容发布系统,支持多源数据采集、智能总结和自动发布到微信公众号https://github.com/OpenAISpace/ai-trend-publish
-
Elon Musk (@elonmusk)
太酷了⚡️ 最强大的 Speed-to-text 模型宣布上线!🔥IIElevenLabs 宣布 IIScribe V1 !最重要的是,支持开放 API,可以深入整合到自身的产品中💥参见 👉 https://elevenlabs.io/blog/meet-scribe
-
Elon Musk (@elonmusk)
# 修复 Kubernetes 证书验证错误您遇到的是 TLS 证书验证失败的问题,以下是解决方案:## 解决证书验证错误### 方法 1:使用 Helm 的 `--insecure-skip-tls-verify` 标志```bash# 添加 --insecure-skip-tls-verify 标志来跳过证书验证helm install ingress-nginx ingress-nginx/ingress-nginx \ --namespace ingress-nginx \ --create-namespace \ --insecure-skip-tls-verify \ --set controller.service.type=LoadBalancer```### 方法 2:修改 kubeconfig 文件编辑您的 kubeconfig 文件,在相应集群配置中添加证书跳过选项:```bash# 编辑 kubeconfig 文件vi /root/.kube/config```找到您要连接的集群部分,添加 `insecure-skip-tls-verify: true`,类似于:```yamlclusters:- cluster: insecure-skip-tls-verify: true # 添加此行 server: https://172.22.0.38:8443 name: your-cluster-name```### 方法 3:使用 kubectl 命令时添加参数```bashexport KUBECONFIG=/root/.kube/configkubectl --insecure-skip-tls-verify get pods```## 修复 kubeconfig 权限警告虽然这不会导致命令失败,但建议修复权限警告:```bash# 修改 kubeconfig 权限为仅所有者可读写chmod 600 /root/.kube/config```## 注意事项- 跳过 TLS 验证在生产环境中存在安全风险,这应该只是临时解决方案- 长期解决方案应该是更新 Kubernetes API 服务器的 TLS 证书,使其包含正确的 IP 地址- 如果这是测试或开发环境,可以接受使用不安全标志选择上述方法之一应该可以让您成功部署 ingress-nginx。
-
Elon Musk (@elonmusk)
# 将Oracle OCI依赖的动态认证替换为静态认证从您分享的kubeconfig内容来看,它目前使用的是`exec`认证方式,每次调用kubectl都会执行OCI命令来生成认证令牌。下面我将提供几种方法来解决这个问题。## 方法1: 使用长期有效的静态令牌替换exec认证1. 首先,使用OCI CLI生成一个令牌:```bashTOKEN=$(oci ce cluster generate-token --cluster-id ocid1.cluster.oc1.eu-frankfurt-1.aaaaaaaafqgpxm7tklzhyxkcyqziyuaoulqwlp2hb4ejcunu5dy7v3a --region eu-frankfurt-1 --auth instance_principal)```2. 创建新的kubeconfig文件,将exec认证替换为token认证:```bashcp ~/.kube/config ~/.kube/config_static```3. 编辑新的配置文件,将users部分修改为:```yamlusers:- name: user-cunu5dy7v3a user: token: "<这里放入生成的TOKEN>"```4. 使用新配置文件:```bashexport KUBECONFIG=~/.kube/config_statickubectl get pods```**注意:** OCI生成的令牌通常只有1小时有效期,这种方法需要您定期更新令牌。## 方法2: 创建集群专用服务账户(更持久的解决方案)1. 创建服务账户和RBAC规则:```bashkubectl create serviceaccount kubectl-sakubectl create clusterrolebinding kubectl-sa-admin --clusterrole=cluster-admin --serviceaccount=default:kubectl-sa```2. 获取服务账户令牌:```bash# 创建一个Secret来生成令牌kubectl apply -f - <
-
Elon Musk (@elonmusk)
Kaniko 是专为 K8s 环境设计的容器构建工具:```apiVersion: v1kind: Podmetadata: name: kaniko-builderspec: containers: - name: kaniko image: gcr.io/kaniko-project/executor:latest args: ["--dockerfile=Dockerfile", "--context=dir:///workspace", "--destination=yourimage"] volumeMounts: - name: workspace mountPath: /workspace```
-
Elon Musk (@elonmusk)
「Next.js 中文文档」的翻译已经更新到 Next.js 15 版本,和最新的官方文档同步。现在它有两个标签:1、最像官方文档的翻译站2、翻译最快的中文文档站欢迎阅读分享:https://nextjscn.org/docs
-
Elon Musk (@elonmusk)
谷歌推出免费代码助手:Gemini Code Assist基于Gemini 2.0,每月可以免费使用18万次,128K上下文(有点小气),提供VS Code和JetBrains插件。官方介绍:https://marketplace.visualstudio.com/items?itemName=Google.geminicodeassist插件下载:https://codeassist.google/products/individual
-
Elon Musk (@elonmusk)
MCP 终极指南https://guangzhengli.com/blog/zh/model-context-protocol/
-
Elon Musk (@elonmusk)
司马懿的洛水之誓对后世影响有多大?其实洛水誓约很灵验啊,洛水之誓之后,司马家突然就从一个长寿家族变得短寿,被寄予厚望的司马师很快就眼球崩裂而死,司马昭莫名其妙去世,司马炎更是直接生出睿智太子司马衷。不仅是寿命和智力的大幅降低,而且还让贾南风这么一个蠢坏还疯狂出轨的当了皇后,很快就八王之乱,司马衷跟傀儡一样摆来摆去,司马家的嫡系先是被八王之乱血洗了一波,然后就是永嘉之乱,石勒之乱,司马炎的后代直接死了个一干二净。最搞得是司马家居然连续两个皇帝当了俘虏奴婢,司马炽和司马邺两个人一天实权都没有,两个皇帝都是被百般羞辱之后灭掉,让司马家两个皇帝开路,洗杯子,当贴身奴仆,甚至给人家开马桶盖。可以说西晋除了司马炎那几年,剩下的除了耻辱就是耻辱,更是贡献了司马邺,羊皇后等诸多历史笑柄。羊皇后那个就更搞笑了,直言不讳的说司马家都是飞舞,您刘耀才是大丈夫。这种耻辱可以说千古未有。司马懿都活了73,司马懿的弟弟司马孚更是活了92,洛水誓约之后司马师48就死了,司马炎活了55,可是后代司马衷48,司马炽30,司马邺只有18。东晋就更别说了,皇帝毫无实权完全就是傀儡,晋明帝司马绍被人家王导大庭广众之下羞辱先祖。后面的就全是被彻底摆动的傀儡了。还出了晋安帝这种顶级痴呆,司马衷好歹有个小学智商,晋安帝完全就是天生残疾。整个晋朝的历史就是司马家被百般羞辱,屠戮的历史。历史上司马家被杀是杀得最多最严重的,司马炎有26个儿子,全部都死于非命。司马炎的孙子都被贾南风害死了,这可是有正式记录的,真的是干干净净,这难道不是报应?放在整个历史上死的如此干净也是相当炸裂的。这样看洛水誓约太灵验了好吧,就跟合同似的,不执行就要付出更大的代价。晋朝光是亡国之君就有四个,然后被刘裕图图了个干净。要知道司马家可是大族,而且还有155年的国祚,结果现在有几个人姓司马。而且你们知道司马懿这三字有多晦气吗,就不说檀道济,李善长这些倒霉蛋。就说最近这两年的吴秀波,拍了个洗白司马懿的军师联盟,吴秀波担任司马懿演员。结果就因为这个电视剧被合伙人坑了4.66亿,直接把家产赔个精光。
-
Elon Musk (@elonmusk)
"board" 这个单词有多个相关含义,在不同场景下可以这样理解:1. 作为硬件术语:- 电路板/主板 (Circuit board/Motherboard)- 印刷电路板 (PCB - Printed Circuit Board)- 集成电路板2. 作为平面物体:- 木板- 板子- 平板- 告示板3. 作为组织含义:- 董事会 (Board of Directors)- 委员会 (Board of Education)- 理事会4. 其他用法:- 登机/上船 (board a plane/ship)- 寄宿 (room and board)- 公告板 (bulletin board)在 RouterBOARD 中,"board" 主要指代硬件电路板的含义,即设备的主板或电路板部分。这是计算机和网络设备领域最常见的用法之一。
-
Elon Musk (@elonmusk)
https://langdb.ai
-
Elon Musk (@elonmusk)
英语学习资源全部整理出来了,全网最全,感兴趣的建议收藏起来吧!后期也会持续更新,干就完了!https://github.com/knowledgefxg/learning-english
-
Elon Musk (@elonmusk)
1000UserGuide:对独立开发者和创业者来说,找到前1000个早期用户太关键了。这里精心整理了300多个国内外渠道,适合独立开发者和创业者推广产品的渠道。https://1000userguide.com
-
Elon Musk (@elonmusk)
一款高颜值、实用的 Markdown 编辑器:NeuraPress。专注于微信公众号排版,响应式设计,支持移动设备,可搭配 DeepSeek 和微信公众号助手使用。GitHub:http://github.com/tianyaxiang/neurapress实时预览,可搭配 DeepSeek和微信公众号助手使用,完美适配微信公众号样式,丰富自定义选项,可一键复制内容。
-
Elon Musk (@elonmusk)
支持自部署 DeepSearch 来了 就是 Deep-Research 项目的可视化版本🚀 配置和API请求在浏览器端完成🕙 流式传输AI响应🌳 树状结构可视化研究过程 支持英文搜索📄 支持导出Markdown和PDF格式报告🤖 纯提示词底层 兼容多模型供应商🌐联网搜索服务 Tavily 嫖 1000 次/月https://github.com/AnotiaWang/deep-research-web-ui
-
Elon Musk (@elonmusk)
https://docs.lumalabs.ai/docs/video-generation
-
Elon Musk (@elonmusk)
https://ai.azure.com/resource/playground
-
Elon Musk (@elonmusk)
微信 Markdown 编辑器🧩https://doocs.github.io/md/微信公众号 Markdown 编辑器🧩https://wxeditor.oldmoon.top
-
Elon Musk (@elonmusk)
https://postgrest-docs-chinese.readthedocs.io/zh/latest/api.html再见了 ORM 现在使用 PostgreSQL + PostgREST,可以省去 99% 的后端编写工作
-
Elon Musk (@elonmusk)
CherryStudio 0.9.27 发布🎉🎉🎉:多模型对话带来了新的网格视图知识库大量优化:支持多选,添加目录进度,支持EPUB、代码等新的格式,调节匹配度阈值近期还有非常多的更新内容,跳转查看:https://github.com/CherryHQ/cherry-studio
-
Elon Musk (@elonmusk)
https://geek-agi.feishu.cn/wiki/B9rYwwg6xidZYJkbrlscxTQFnOc
-
Elon Musk (@elonmusk)
大模型基础https://github.com/ZJU-LLMs/Foundations-of-LLMs
-
Elon Musk (@elonmusk)
https://www.reddit.com
-
Elon Musk (@elonmusk)
2025年美国人工智能能力与中国脱钩法案https://www.hawley.senate.gov/hawley-introduces-legislation-to-decouple-american-ai-development-from-communist-china/
-
Elon Musk (@elonmusk)
性价比最高的科学上网方案:Shadowrockethttps://houjoe.me/posts/shadowrocket-guide/