最近读到一篇介绍 Pydantic 生态的文章,提到 pydantic-settings 库除了可以简化应用配置外,还可以用来创建命令行应用。在参阅了相关文档后,我完成了一个简单的示例,体验相当不错。
1 | # /// script |
可以直接使用 uv 运行该脚本。
1 |
|
最近读到一篇介绍 Pydantic 生态的文章,提到 pydantic-settings 库除了可以简化应用配置外,还可以用来创建命令行应用。在参阅了相关文档后,我完成了一个简单的示例,体验相当不错。
1 | # /// script |
可以直接使用 uv 运行该脚本。
1 |
|
想象一下你拥有一台自带 AI 助手的手机,想让它帮你用微信发送最近拍摄的合同照片给张总。
若是像以豆包手机为典型的基于屏幕内容读取和模拟点击操作的 AI 手机,大概会按照以下步骤来操作:
过程中可能会弹出多次授权请求,让用户同意 AI 打开并操作相册、微信等应用。当然不讲究的用户可能在首次配置 AI 手机的时候就永久授予了大部分常见应用的操作权限。
期间 AI 助手会分析识别手机相册中的近期照片(其中可能有家人近照,证件照等敏感照片),获取你的微信好友列表(以及经常互相分享的亲密联系人),给微信好友发消息。并且由于分析照片内容会消耗不少时间,总耗时可能也会长达一分钟以上。
简单来说,这些行为是对隐私和信息安全的极大侵犯,而且并未明显为用户节省时间。
侵犯隐私,安全隐患,效率低下,这就是我对目前讨论火热的豆包手机的看法。
问题的根源在于,若 AI 助手依赖通过读取屏幕内容的方式获取上下文信息,不可避免地需要频繁通过 AI 模型分析手机屏幕上的所有元素。
手机屏幕上往往不只是 AI 助手当前任务需要的信息。比如在上文提的示例中,AI 助手会读取多张图片的内容,直到它找到了合同的照片。并且 AI 助手在微信分享的联系人列表中找到张总之前,可能已经读取了用户大部分的联系人微信昵称和头像,毕竟按拼音排序张总大概率在列表的很后面的位置。同理,在让 AI 帮你在淘宝购买商品的场景下,AI 会获取你的首页推荐商品列表,最近订单,收货地址等隐私信息。即使用的是不联网的端侧模型,我也对 AI 手机们能否妥善处理这些隐私信息持怀疑态度。
当前 AI 模型识别图片需要的时间明显要长于人类,对于普通人来说从相册内的一堆图片中中找到合同照片轻而易举,而 AI 模型不可避免地要一张一张照片的读取并识别(大概率不会同时分析多张照片,端侧模型来不具有满足此类功能需求的性能,对于远程 AI 接口来说这样做成本会相当高)。对人类来说不到十秒的操作,AI 可能需要花费十分钟才能完成,期间用户还不能正常使用手机,实在不是多么优秀的体验。
此外 AI 手机可能还会出现误删除重要文件,发送错误信息给联系人等危险操作。毕竟作为相对很成熟 AI 编程领域,行业领先的 Google Gemini 3.0 Pro 都犯过删除用户整个磁盘文件的错误。尤其是当 AI 手机完成简单的日常操作十分优秀,用户为了省事不再逐一仔细检查 AI 手机的行为默认授权后,往往会有潜在的巨大安全隐患。
综上,不论豆包手机在二手平台炒到到了几万元的高级,它终究不是我理想中的 AI 手机的最佳形态。
我最近使用 Github Copilot Agent 模式的频率大幅增加,在接近月底的时候已经达到了 80%的高级请求使用额度,有必要准备一个备用的 AI 开发工具。
目前比较流行的终端 AI 开发工具非 Claude Code 莫属了(OpenAI 的 Codex 我有使用过,有点倾向于埋头几分钟进行一堆更改,可控性没有 Claude Code 高),但国内环境使用 Claude 模型比较困难,此时可以选择在 Claude Code 中使用国产模型,比如GLM 4.6和MinMax M2,只需要修改 claude code 的默认配置就好了。。
.claude/settings.json
1 | { |
Python 3.13 版本引入了 (No-GIL 模式),彻底解决了长期存在的并发性能瓶颈问题。随着Python 3.14的发布,Non-GIL 模式更加稳定。本文通过一个计算密集型任务的实际测试,对比 GIL 模式和 No-GIL 模式的性能差异,展示 Python 3.14 在多线程场景下的显著提升。
uv (高性能 Python 包安装器和解析器)我们设计了一个计算密集型任务:计算 1 到 1,000,000 的平方和。通过以下方式验证并行性能:
任务分解:
计算函数:
1 | def sum_of_squares(numbers: list[int]): |
ThreadPoolExecutor 实现线程池1 | from concurrent.futures import ThreadPoolExecutor |
Context7 是专为解决 AI 编码助手“知识滞后”痛点设计的革新工具,通过实时抓取最新、版本特定的官方网页与代码示例,直接注入 LLM 的上下文环境,彻底告别过时 API 调用与“幻觉代码”。其核心优势在于:
use context7,即可自动调用最新网页,避免开发者反复切换工具验证信息; 对于追求代码质量与开发效率的团队及个人开发者,Context7 以免费开源的形式提供企业级网页管理能力,是 AI 编程时代不可或缺的“智能外脑”。
Code Buddy是腾讯推出的 AI 编程助手,提供 IDE 拓展和独立 IDE。最近腾讯又推出了命令行工具Code Buddy Code,类似 Claude Code 和 Gemini CLI。我简单体验了一下,开发了一个网页版的Mermaid 编辑器,总体体验比阿里推出的 Qwen Code 要好一点(可能是因为 Code Buddy Code 的海外版默认使用的 Claude 4 模型比 Qwen3 Coder 还是要强上一线)。
【由DeepSeek辅助翻译】
原文链接:https://blog.logrocket.com/typescript-go-pragmatic-choice/
发布时间:2025年4月16日 14:51:38(UTC时间)
关于这次移植的技术细节已有大量报道,本文不再赘述。这里呈现的是TypeScript社区两位成员的思考:
ts-loader这个webpack的TypeScript加载器。目前他在南非Investec银行伦敦分部工作。在他看来,伦敦是地球上最伟大的城市 本文将自由呈现我们的反应与期待。准备好迎接观点、思考和感受的碰撞吧。
难道之前不够好吗?是,但也不尽然。
近年来JavaScript/TypeScript生态中,越来越多支持JS开发的工具改用其他语言编写:esbuild(Go)、SWC(Rust)、Bun(Zig)、Deno(Rust)。这些工具都带来了显著的性能提升,而TypeScript始终用自身编写。虽然团队持续优化性能,但改进始终是渐进式的。
社区开始涌现自行实现TypeScript加速的尝试。最著名的是SWC作者DongYoon Kang,他先实现了TypeScript转译功能,又尝试构建类型检查器——最初用Rust,后改用Go,最终回归Rust。虽然项目未成功,但这些尝试印证了市场对性能的强烈需求。移植已成必然——若非官方出手,整个生态将陷入困境。而现在,我们迎来了Go版的TypeScript。
Go移植对TypeScript意味着什么?根据Josh Goldberg的框架,TypeScript包含四个维度:
语言规范不受移植影响,语法保持不变。您仍可照常使用type和interface。类型检查规则也维持原样,原有错误提示依然有效:
const i: number = "非数字值";
// ts报错:类型'string'不能赋值给类型'number'
真正的变化始于类型检查器、编译器和语言服务——它们将获得数量级的提速。
谁不关心性能?显然没人。当工具卡顿打断工作流时,这种体验令人难以忽视。TypeScript团队始终重视性能,特别是开发工具响应速度。联合创始人Anders Hejlsberg多次强调语言服务器必须提供毫秒级反馈。
这将如何影响生态?简而言之:更快的VS Code和构建流程。
以John所在的Investec银行为例,众多使用VS Code的工程师将获得更流畅的开发体验:项目加载时语言服务启动更快、重构响应更迅捷、”红色波浪线”出现更及时。构建过程同样受益——无论是本地还是持续集成环境,TypeScript编译都将显著加速。这种提升将惠及全球所有TypeScript开发者。
【本文由DeepSeek R1辅助编写完成】
PEP750
在 Python 的字符串处理领域,f-strings 自推出以来因其简洁高效广受开发者喜爱。但 f-strings 的即时求值特性在某些场景下显得力不从心,特别是在需要预处理的场景(如安全转义、结构化日志记录)中。PEP 750 提出的**模板字符串(Template Strings)**通过引入 t 前缀和延迟处理机制,为这一难题提供了优雅的解决方案。本文将深入解析这一提案的核心思想,并通过实际案例展示其强大能力。
模板字符串使用 t 前缀定义,语法与 f-strings 完全兼容:
1 | from string.templatelib import Template |
与 f-strings 不同,模板字符串不会直接求值为字符串,而是生成 Template 对象,包含静态字符串片段和插值表达式信息。
1 | class Template: |
每个插值表达式对应一个 Interpolation 实例:
1 | class Interpolation: |
传统 f-strings 在生成 HTML 时容易引发 XSS 漏洞:
1 | user_input = "<script>alert('XSS')</script>" |
模板字符串解决方案:
1 | def safe_html(template: Template) -> str: |
传统日志记录丢失结构化数据:
1 | logger.info(f"User {username} logged in") # 无法提取 username 值 |
模板字符串解决方案:
1 | class StructuredMessage: |
【由DeepSeek辅助编写】
MCP Run Python 是由 PydanticAI 提供的 MCP 服务器,能够在安全、隔离的沙盒环境中执行 Python 代码。它基于 Pyodide 和 Deno 技术栈,通过 WebAssembly 实现代码隔离,确保主机系统不受执行代码的影响。
推荐使用 Deno 运行(替代原 npm/npx 方案):
deno run -N -R=node_modules -W=node_modules --node-modules-dir=auto jsr:@pydantic/mcp-run-python stdio
支持三种运行模式:
stdio:通过标准输入输出通信(适合本地子进程) sse:基于 HTTP 的服务器推送模式(支持远程连接) warmup:预加载 Python 标准库通过 Python MCP 客户端调用:
from mcp import ClientSession
from mcp.client.stdio import stdio_client
code = """
import numpy as np
arr = np.array([1, 2, 3])
print(arr)
arr
"""
async with ClientSession(...) as session:
result = await session.call_tool('run_python_code', {'python_code': code})
print(result.content[0].text) # 输出执行结果
支持两种依赖声明方式:
import 语句 # /// script
# dependencies = ["pydantic", "email-validator"]
# ///
Introducing GitHub Copilot agent mode (preview)
[Llama 4]https://www.llama.com/docs/model-cards-and-prompt-formats/llama4_omni/)
Llama 4发布36小时差评如潮!匿名员工爆料拒绝署名技术报告