这是我在社交平台上的较短发言,觉得有需要汇总记录的部分。

24-09-24

NotebookLM 给生成的对谈语音添加了大量语气助词和“口水话”为了让语音听起来更生动,与此同时也有不少专门工具用来删除真人录制的播客语音中的语气助词 😄 我喜欢这种状态下人们对 AI 的宽容和鼓励。

24-09-23

最近看到一些抱怨在 Spotify 上找不到自己想听音乐的评论,结合我自己的体验,查找并管理音乐的方式相比以前是稍显路径多了些。

但是当我将音乐、播客、有声书和现场演出信息等内容在 Spotify 最新一次改版中来回访问时,这些不同类型的消费内容呈现出了较为一致的使用体验。并且对于播客内容,Spotify 所提供的内容与组织形式,在播客应用中算挺不错的。

这或许与我们所熟悉的“木桶理论”相关,“一只水桶能盛多少水,并不取决于最长的那块木板,而是取决于最短的那块木板。”

当一款产品中提供多种类型内容时,通常的想法是给用户提供了消费内容时的体验均值,或许是希望高体验的内容能够“说服”用户接受或忘掉不好的体验,但通常恰好是这些不好的体验在用户心中留下更深刻的印象。并产生了反向“峰终定律”。

对于 Spotify,音乐就是那个被“均贫”了体验的内容,对于冲着音乐内容使用 Spotify 的用户中的一部分人来,这种均值已然被他们视为“背叛”与“背离初心”。

24-09-09

Illuminate 这款产品有意思的地方是对谈方式听起来真的更听得进去一些,好比 Landing page 上的 FAQ,或者 testimonial,比平铺直叙的文本要来得生动。

Reader by Readwise 最近改了个特性是文本高亮区域前后增加了控制柄,可以实时调整高亮范围,而不需要像以前、以及大多数具备文本高亮特性的产品那样得先删除高亮再重新标记。但我感觉这个功能让高亮动作失去了些严谨性,动作起止点也有些模糊。当你标记了很多段落时,像是一篇文章上漂浮着许多高亮的气泡 🫧,有种暧昧不定的不踏实感。

24-08-30

这半年来 Sora “空”和 Empty “空”是同一个空。

24-08-20

作为一名穷鬼,我一直在期待 ChatGPT/Gemini/Claude 降到 $10 档位。

24-08-07

关于用户教育,面谈低效不可重复,文档生硬缺乏变通,而潜移默化则是一种艺术。

如今人们习惯了使用对话界面获取经过 LLM 咀嚼后吐出来的知识(我很满意这个比喻),可能很少人注意到维基百科去年开始更新的默认界面样式 —— 之前使用的版本自 2004 年以来没怎么变过,直到维基基金会在 2019 年决定制作更符合现代浏览习惯与满足技术要求的新版本。

Alex Hollender 这篇一年前的文章回顾了改版过程,从现状、挑战、目标、基于原型的讨论,样式思考,极具维基风格的决策动议,还有对于设计民主化的思考。 → Design notes on the 2023 Wikipedia redesign

24-08-06

语音比文本输入快,但还不够快。

24-08-05

Obsidian + Ollama is where the magic happens

24-07-28

批量产出的 AI 制品和生产它们的流水线像在拼多多上卷价格的白牌厂。不同的是不时冒出的一点审美与品味被淹没的速速远超实体商品。

24-07-11

98%出现“进行”俩字的句子都是语言欧化的受害者

24-06-30

LLM 时代,翻译和桌面主题美化是同一类产品:服务供给标准化,原文就在那里;内容消费个性化,谁都有自己习惯的翻译风格;用户审美各不待见,懂点儿原文的人多半说过“这翻得也太差了”。

24-06-29

Dare to delete

24-06-27

Dialpad 是生成式AI产品中很有潜质的输出控制控件。

24-06-03

比确认现状走得更远一些,去质疑现状。

AI 时代的写作者逐渐往编辑靠拢

24-05-31

在传统行业,AI 指的还是 OCR + NLP,有大量空间待填补。

24-05-20

或许所谓的”幻觉”是通往 AGI 之路

24-05-17

最近看到对 GPT-4o 拟人语气的赞扬,以及对 Project Astra 没有类似特性的”批评”,让我想起被讨论过但似乎还没定论的问题:生成式语音是否存在恐怖谷效应?或者说语音是帮助仿生机器人跨越恐怖谷的一个工具。

24-05-09

我对所有使用“否定句式”先破再立的 PUA 式实践教学都毫无兴趣

24-03-27

时间旅行是成年人的圣诞老人。

24-03-07

就生成式 AI 服务,不会被轻易封号的安全感超过了推理稍好一些的满足感。

24-03-06

我喜欢尝试不同的语言学习应用,在初期其实各种应用区别不大,有分歧的地方在于是否提供了口语情境和练习。学习一门语言只是敲门砖,最终目的是使用这门语言,而这需要在日常中用起来。这是另一种意义上的“伟大不能被计划”。

为事情不按计划进行做好准备, 为事情不会持久做好准备。

24-03-01

生成式模型展现的情感与逻辑就像办公室里的绿植,它有点用,但你得意识到那不是大自然。

24-02-29

大部分 AI 创作能力只能称之为“鉴赏能力”。

去掉AI也成立。

24-02-27

功能趋同的情况下,气息与氛围决定了用户是否选择使用其中某一款产品。

24-02-03

密集用了两天,也看了一些 V 们对 Arc 新功能的讨论。我认为 Instant Links 是有更好的交互和“使命感” I’m Feeling Lucky,如果不在这个框架里,那么 Arc Browser 会面对很多“中立性”与“公平”问题,而“搜索中立性”在过去十多年已经讨论得差不多了。

24-01-31

看来 Vision pro 是另一种方向的游戏主机,感官独占性,用起来爽,但不是日常设备。

24-01-27

微信读书“连接纸书”功能体现了顶级销售思维。

23-12-24

金句是认知的有损压缩。

23-12-21

行动能缓解源于未知的焦虑。

23-12-15

Prompting is the new typing。

23-10-24

语雀宕机这事让我又想起 Obsidian CEO Steph Ango 这篇 File over app。
用户对于数据的所有权不应该受到格式、工具、系统或网络云服务等因素的限制。

23-10-23

Google DeepMind 在近期发表的论文中讨论了一种基于 “Context 情境” 的人工智能系统的社会与道德风险评估框架。新框架将人工智能系统的能力(Capability),人类使用交互(Human interaction),更广泛的系统化影响(Systemic impact)等不同范围,确保人工智能系统的安全性能够被准确评估。

“预期与目的”作为基准的评估体系,要求研究人员、应用开发者和利益相关者在各阶段分配轻重有别的责任,可以看作是尽可能地实现安全评估的信息公开与前后对齐的一种办法,也是一种对于技术中立性的保护。

23-10-17

在小红书上观看36氪的视频,像是小红书、36氪和用户三方都往非常规方向迈出一步后交汇了的场景。

23-09-25

动辄「这不就是…」的习惯反映出一种慵懒的固步自封。

23-08-22

机器翻译后遗症:看到(真的)法学硕士以为是说大语言模型。