分类: 未分类

  • 【转载】战胜内心的抗拒:追寻创作之路,还有一只野猫

    嘿!上个星期我跟大家分享了一本我超爱的书,《The War of Art》。这本书头头是道地讲述了创作者们最头疼的问题,就是怎么战胜自己内心的拖延魔。

    作者管这拖延魔叫做「阿抗」,这家伙总是在我们想要追求长远成长、健康发展或者做点诚实正直的事情时冒出来捣乱。它就像个坏蛋,想尽办法阻止我们向前迈进。

    要想战胜这个阿抗,我们得变成「专业人士」。这本书里有好多有趣的故事和金句,今天我就来跟大家嗨皮一下,分享点精华内容。

    首先是一只野猫的故事。有一次作者身无分文,只能去乡下租了一间破房子,租金才15块钱,房子连门、电、厨房和厕所都没有。每次他在屋外生火做饭,就会有一只看上去狼狈不堪的野猫冲出来,在不远处坐下盯着他看。

    这只猫就那么静静地坐着,根本不吃作者给的食物,只是凝视着他。明显地,这只猫跟作者不在一个层次上啊。

    但是作者却觉得这是个好兆头。他当时心里想:为什么会有只猫出现在这个时候,而且还一直出现,感觉就像是我的能量一直把它招引过来。

    「也许它来这里是为了鼓励我,告诉我,『Steven,你也可以像我一样。你可以自主,你可以照顾好自己。』」

    这给了当时处于低谷的作者巨大的力量。

    阿抗就像是电影《异形》、《终结者》或者《大白鲨》里的那个恶魔,它根本没法理性对话。它就是个破坏引擎,从工厂里设计出来的唯一目的就是阻止我们完成工作。

    阿抗的目的不仅仅是想伤害我们,更是想彻底摧毁我们的天赋、我们的灵魂、我们所拥有的独一无二的福祉。

    当我们跟阿抗搏斗的时候,我们真的是在一场生死大战中。

    深夜里,你有没有过一种幻想,看到你可能成为的人,你可以完成的工作,你应该成为的自己?

    你是一个不写作的作家,不画画的画家,不创业的企业家吗?如果是的话,那你懂的,阿抗就是你的老相好。

    天才这个词源自拉丁语,古罗马人用它表示一种内在的、神圣且不可侵犯的精神,它看护着我们,引导我们走向我们的天命。

    每个太阳都会投下阴影,天才的阴影就是阿抗。我们灵魂对实现天命的呼唤有多强大,阿抗哟!上周过得咋样啊?我上周分享了一本我超喜欢的书,《The War of Art》。这本书讲的是创作者们最重要的一个认知和修炼,就是「抗拒」(我亲切地称之为阿抗),总是在我们选择做一些长远成长、健康或诚实的行为时出现。

    咱们想要成长进阶,阿抗就会狠狠地拦在咱们面前,想尽一切办法阻止咱们前进。为了赢得这场和阿抗的战役,咱们得成为「专业人士」。

    为了视频时长的关系,我没带上作者很多有趣的故事和书中的金句,咱们在这里分享给大家吧。(真的不能只有我看到)

    一只野猫的故事
    当 Steven Pressfield 落魄到跑到乡下去租一个租金只要 15 美金的房子,连门、连电、连厨房、连厕所都没有时,只要他在屋子外面生火煮东西,就会有一只看起来伤痕累累的野猫跑出来,坐在不远处看着他。

    这只猫就只是静静坐着,完全不吃 Steven Pressfield 给的食物,就只是盯着他看。

    两者哪一个是自给自足,能够将自己的生活打理好的一方,显而易见。

    但 Steven Pressfield 觉得这是一个好兆头。

    他那时候心里想:为什么这时候会出现这么一只猫,而且它的持续出现,感觉是自己的能量一直把它拉出来。

    「也许它来这里是为了鼓励我,告诉我,’Steven,你也可以像我一样。你可以是自主的,你可以照顾好自己的。’」

    这给当时处于最黑暗深渊的他极大的力量。

    有关「阿抗」
    阿抗就像异形、终结者,或者《大白鲨》里的那条鲨鱼,它无法理性对话。

    它是一个毁灭的引擎,从工厂里被设计出来的唯一目的,就是阻止我们完成工作。

    阿抗的目的不仅仅要伤害我们,它更要进一步杀死我们的天赋、我们的灵魂、我们被赋予的独一无二的礼物。

    当我们跟阿抗战斗时,我们确实就是在一场生死之战中。

    深夜里,你有没有过一种幻想,看到你可能成为的人,你可以完成的工作,你应该成为的自己?

    你是一个不写作的作家,不画画的画家,不创业的企业家吗?如果是的话,那么你知道什么是阿抗。

    天才(Genius)是一个拉丁词,罗马人用它来表示一种内在的、神圣且不可侵犯的精神,它看护着我们,引导我们走向我们的天命。

    每一个太阳都会投下阴影,天才的阴影就是阿抗。我们灵魂对实现天命的呼唤有多强大,阿抗的力量也就越强大。

    阿抗会化身成自我怀疑,而自我怀疑可能是个盟友,因为它是渴望的指标。它也反映了爱,对我们梦想要做的事情的爱。

    如果你常问自己(或你的朋友),”我真的是一个作家吗?我真的是一个艺术家吗?” 那你很可能就是。

    阿抗也会化身成恐惧。恐惧是好的。就像自我怀疑一样,恐惧是一个指标,它告诉我们我们该做什么。

    我们对一项工作或使命感到越害怕,就越可以确定我们必须去做它。

    阿抗的力量与爱成正比。如果你感到巨大的抗拒,好消息是,这意味着那里也有巨大的爱。

    如果你不爱那个让你感到恐惧的事情,你就不会感到任何东西。爱的反面不是恨,而是冷漠。

    有关「恐惧」
    恐惧是阿抗的食物。我们通过害怕才能感受到「抗拒」的存在。但我们害怕什么?

    害怕追随内心的后果感到恐惧。害怕破产,害怕变穷,害怕低声下气,害怕无法养家糊口,害怕为了我们的梦想而牺牲家人的梦想。

    害怕背叛我们的种族,我们的社群,我们的朋友。

    害怕失败、害怕看起来很傻,害怕浪费那些我们爱的人牺牲自己,让我们接受的教育、害怕放弃我们之前努力追求的成就。

    害怕白费功夫、害怕无法回头、害怕最后只能跟这个糟糕的选择度过余生。

    这些都是挺严重的恐惧,但还不是真正的恐惧,不是那个从我们口中说出来,自己都不相信的恐惧。

    那就是:害怕我们会成功。

    于是我们可以接触到那个隐藏的力量,可以成为内心深处真正的自己。

    这是人类能够面对的最令人恐惧的未来,因为这使得一个人在心中被他的部落踢出去了,而这种想象中的连接已经存在了五千万年。

    我们害怕发现自己比我们以为的更强大,比我们的父母/孩子/老师以为的更强大。

    害怕我们真的拥有埋藏在内心深处的才华,害怕我们真的拥有勇气、毅力和实力。

    害怕我们真的能够掌握自己的方向、插上自己的旗子、抵达我们应许之地。

    我们害怕这一切,因为如果这是真的,那么我们将与所知道的一切疏离。

    我们知道,如果要拥抱理想,我们必须证明自己配得上。

    这让我们吓壳了。

    我们最终会变成什么样子?我们将失去朋友和家人,他们将不再认识我们。

    我们最终会孤独地身处在冷寂的星空下,没有任何人或任何东西可以依靠。

    然而,有个奇妙的地方。

    我们最终抵达了那个境地,但并不是孤身一人。

    相反地,我们接触到了一个取之不尽、用之不竭的智慧、意识和友情之源。

    是的,我们失去了朋友。但我们也在从未想到的地方找到了朋友。

    而且这些朋友更好,更真诚。而我们同样也对他们更好,更真诚。

    相信我,这是真的。

    我和阿抗的战役
    不知道你看了以上的文字有什么感觉?我自己是相当震撼。

    其实我上周在做明天要上传的视频时,我发现阿抗的攻击力变得异乎寻常地强大。

    结果让我花了整整三个工作天,才把剧本写完,拍完之后整个人都虚脱了,但也如释重负,相当有成就感。

    所以我知道,这正是我该做的。

    所以,如果可以的话,请你助我一臂之力,帮我用力分享明天的视频,好吗?

    你看了之后,会知道为什么的。

    喔对了,还有一件我之前相当抗拒的一件事情,我也决定要去做了,那就是报名今年的【走钟奖】,

    极度社恐、内向指数100分的我,只要一想到有可能要坐在那个场合一个晚上,我就浑身抗拒。

    但是身为「专业人士」,为了让我们吐心瀝血做出来的视频被更多人看到,这是毫无疑问一定要做的。

    如果到时有幸入围,我会请大家帮忙冲人气的。

    来吧,咱们一起战胜阿抗,追寻自己的梦想。无论阿抗如何困扰我们,咱们要坚持不懈,相信自己的能力。祝愿你在未来的努力中取得成功,同时也希望我的视频和【走钟奖】能够获得更多人的关注和支持!

    就是这样,咱们一起去战胜阿抗!加油!

    By 【張修修的自由之路】

  • 利用Softmax-DPO优化推荐系统的论文综述

    摘要:推荐系统是根据用户的偏好数据预测个性化的排名。近年来,随着语言模型(LMs)的兴起,基于LM的推荐系统得到了广泛研究。然而,现有的LM-based推荐系统往往未能充分利用偏好数据,并未针对个性化排序任务进行优化,限制了其性能。本文针对这一问题,提出了一种名为Softmax-DPO(S-DPO)的优化方法,将排名信息直接融入LM中,帮助区分用户偏好的物品。S-DPO通过使用多个负样本构建偏好数据,并针对LM-based推荐系统设计了一种新的DPO损失函数,结合了Softmax采样策略。实验证明,S-DPO在三个真实世界数据集上的表现优于其他基线模型,有效地模拟了用户的偏好,并提升了推荐性能。

    引言:推荐系统旨在根据用户的偏好数据预测个性化的排名。近年来,随着语言模型(LMs)的发展,基于LM的推荐系统得到了广泛研究。LM-based推荐系统将用户的历史交互数据转化为语言提示,并通过在训练过程中优化语言模型来实现推荐。然而,现有的LM-based推荐系统并未充分利用偏好数据,并未针对个性化排序任务进行优化,从而限制了其性能。

    本文的主要贡献是提出了一种名为Softmax-DPO(S-DPO)的优化方法,专门针对LM-based推荐系统进行了优化。S-DPO通过在偏好数据中引入多个负样本,并设计了一种新的DPO损失函数,将排名信息直接融入LM中。与现有的方法相比,S-DPO在准确建模用户偏好和提升推荐性能方面具有明显优势。

    实验证明,S-DPO在三个真实世界数据集上表现出色。与传统推荐系统和其他LM-based推荐系统相比,S-DPO的命中率提高了11.10%至47.03%。这是因为S-DPO能够有效地区分用户喜欢和不喜欢的物品,充分利用了多个负样本的排名梯度。此外,S-DPO还成功解决了DPO训练中数据似然下降的问题,提高了模型的性能和稳定性。

    综上所述,本文提出的S-DPO方法为LM-based推荐系统的优化提供了重要思路。通过将排名信息融入LM,并利用多个负样本,S-DPO能够更好地模拟用户的偏好,并提升推荐性能。这一方法在推荐系统领域具有重要的应用前景,同时也为其他领域的研究提供了有价值的启示。

    关键词:推荐系统,语言模型,偏好数据,个性化排序,Softmax-DPO

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 9325 | UV: 4287
Last updated: 2025-07-26 19:26:34
沪ICP备2024052574号-1