COMP5270 Assignment 1 中文题解

说明:这是一份中文学习版题解,目标是帮助你理解每道题的思路、知识点和论证过程,后续可再压缩成提交版 LaTeX。

学术诚信提醒:如果你在最终提交中参考了讲义、教材、网页或 LLM,请按老师要求注明来源,并用自己的话重写,不要直接照搬。


Problem 1:随机集合的两个概率

题目概述

从全集 \(\{1,2,\dots,n\}\) 的所有子集中,独立且均匀随机地选出两个集合 \(S\)\(T\)。求:

  1. \(\Pr[S \subseteq T]\)
  2. \(\Pr[S \cup T = \{1,2,\dots,n\}]\)

解题思路

这道题最关键的观察是:

  • 对每个元素 \(i\) 而言,是否属于 \(S\) 是独立的 Bernoulli\((1/2)\)
  • 是否属于 \(T\) 也是独立的 Bernoulli\((1/2)\)
  • 因此对每个元素 \(i\),它在 \((S,T)\) 中的状态共有四种,而且等可能: \[ 00,\ 01,\ 10,\ 11. \]
Read more »

🚀 每日科技速递 - 2026-03-20

过去 48 小时的主线很清晰:OpenAI 宣布收购 Astral,把 uv / Ruff / ty 这套 Python 基础设施直接并入 Codex 版图,说明“AI 写代码”正在往“AI 接管完整开发工作流”推进。另一边,围绕 ChatGPT 可能开放成人模式的讨论,把记忆、个性化和隐私监控风险重新推上台面;学术圈也开始更强硬地处理 LLM 代写评审与论文流程问题。加密侧则出现更现实的一幕:Crypto.com 一边推进 AI 战略,一边裁掉约 12% 员工,说明 AI 对组织结构的改造已经落到经营层面。

🧠 LLM / Large Models

• 🔥18 | ChatGPT“成人模式”引发亲密监控担忧:WIRED 指出,如果 OpenAI 允许成人用户与 ChatGPT 进行更私密的互动,模型记忆与个性化能力就可能把性偏好、聊天习惯等高敏感数据沉淀为新的隐私风险面。[Reddit r/ChatGPT, 212↑] WIRED

• 🔥17 | OpenAI 将收购 Astral:OpenAI 宣布把 Astral 并入 Codex 体系,重点看中的并不只是 uv、Ruff、ty 这些明星工具,更是让 AI 代理能直接进入依赖管理、格式化、类型检查与验证环节。对 Python 生态来说,这意味着最“底座级”的开发工具链,开始和模型能力深度绑定。OpenAI Blog

• 🔥15 | ICLR 2026 一篇论文“2 拒 1 边拒”却拿到 oral,引发评审体系讨论:这条热帖让研究社区重新关注顶会评审波动、口头报告分配和优秀论文被低估的问题。它本身不是模型发布,但对 LLM 研究者来说,学术评价体系的不确定性仍是核心现实。[Reddit r/MachineLearning, 75↑] OpenReview

• 🔥14 | ICML 开始拒绝使用 LLM 代写评审的审稿人论文:社区热议的重点不是“能不能用 AI”,而是学术会议已经开始把“明知禁止仍使用 LLM”视为程序违规并实施实质惩罚。随着大模型深度介入科研工作流,研究伦理正在从软约束变成硬规则。[Reddit r/MachineLearning, 175↑] Reddit

• 🔥13 | Weight Norm Clipping 被报告可将 grokking 加速 18-66 倍:这项分享强调,通过更稳定的范数控制,可以在 300 个随机种子上把“突然学会规律”的训练过程显著提速且几乎不失败。虽然仍是研究阶段,但它对小模型训练稳定性和可复现实验很有吸引力。[Reddit r/MachineLearning, 59↑] Reddit

🤖 AI Agent

• 🔥18 | ChatGPT 成人模式争议也在重塑 Agent 边界:一旦助手既能长期记忆用户,又能参与更私密、更高情绪价值的对话,Agent 就不再只是“工具”,而更像持续陪伴系统。真正的问题变成:这些代理是否具备足够透明的记忆开关、审计能力和数据保留边界。[Reddit r/ChatGPT, 212↑] WIRED

Read more »