这是我在社交平台上的较短发言,觉得有需要汇总记录的部分。

24-03-07

就生成式 AI 服务,不会被轻易封号的安全感超过了推理稍好一些的满足感。

24-03-06

我喜欢尝试不同的语言学习应用,在初期其实各种应用区别不大,有分歧的地方在于是否提供了口语情境和练习。学习一门语言只是敲门砖,最终目的是使用这门语言,而这需要在日常中用起来。这是另一种意义上的“伟大不能被计划”。

为事情不按计划进行做好准备, 为事情不会持久做好准备。

24-03-01

生成式模型展现的情感与逻辑就像办公室里的绿植,它有点用,但你得意识到那不是大自然。

24-02-29

大部分 AI 创作能力只能称之为“鉴赏能力”。

去掉AI也成立。

24-02-27

功能趋同的情况下,气息与氛围决定了用户是否选择使用其中某一款产品。

24-02-03

密集用了两天,也看了一些 V 们对 Arc 新功能的讨论。我认为 Instant Links 是有更好的交互和“使命感” I’m Feeling Lucky,如果不在这个框架里,那么 Arc Browser 会面对很多“中立性”与“公平”问题,而“搜索中立性”在过去十多年已经讨论得差不多了。

24-01-31

看来 Vision pro 是另一种方向的游戏主机,感官独占性,用起来爽,但不是日常设备。

24-01-27

微信读书“连接纸书”功能体现了顶级销售思维。

23-12-24

金句是认知的有损压缩。

23-12-21

行动能缓解源于未知的焦虑。

23-12-15

Prompting is the new typing。

23-10-24

语雀宕机这事让我又想起 Obsidian CEO Steph Ango 这篇 File over app。
用户对于数据的所有权不应该受到格式、工具、系统或网络云服务等因素的限制。

23-10-23

Google DeepMind 在近期发表的论文中讨论了一种基于 “Context 情境” 的人工智能系统的社会与道德风险评估框架。新框架将人工智能系统的能力(Capability),人类使用交互(Human interaction),更广泛的系统化影响(Systemic impact)等不同范围,确保人工智能系统的安全性能够被准确评估。

“预期与目的”作为基准的评估体系,要求研究人员、应用开发者和利益相关者在各阶段分配轻重有别的责任,可以看作是尽可能地实现安全评估的信息公开与前后对齐的一种办法,也是一种对于技术中立性的保护。

23-10-17

在小红书上观看36氪的视频,像是小红书、36氪和用户三方都往非常规方向迈出一步后交汇了的场景。

23-09-25

动辄「这不就是…」的习惯反映出一种慵懒的固步自封。

23-08-22

机器翻译后遗症:看到(真的)法学硕士以为是说大语言模型。