news 2026/5/1 8:33:20

学习日记day64

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
学习日记day64

Day64_0121

专注时间:目标是:5h30~6h。实际:5h47min

每日任务:饭后的休息(25min),学习间歇的休息(15min)都用手表计时器来监督

{step1}40min=二刷1道力扣hot100+昨天的题再做一遍(如果是hard,只做一道就好完成情况及时长:二刷昨日题目:15min,今日题目:32min);【学习资源:PyTorch官方文档:https://docs.pytorch.ac.cn/tutorials/beginner/basics/intro.html】1.5h=PyTorch工程实操(完成情况及时长:0。把第二个pytorch网页的“局部禁用梯度计算”看懂,就去看第一个pytorch网页);{step4}1h=周志华机器学习(完成情况及时长:0min);{setp3}1.5h+(claude的RL4LLM学习路径,时长:25+63+8min){step2,学习《考试重点.pdf》8页并每日复习和1h学习时间都要满足。}1h=计算机网络复习[学习和背诵《考试重点.pdf》+1题历年考题,循环地做。不懂的可以看网课和问豆包](完成情况及时长:很多时间+已看完,明天复习该文件+做历年试卷);

学完机器学习,然后是深度学习。学完PyTorch,之后是Transformer与大模型架构(见Gemini3pro生成的阶段2)。学快一点。准备一个GitHub Repo把所有手撕过的算法整理进去,这会是最好的复习资料。

必须熟记的API、最简洁的GPT实现、带注释的Transformer实现、推荐系统模型库(包含主流模型实现)还有“Let's build GPT”系列学习视频见Claude的第20页。冰哥听讲座,老师说:GPT是最好的老师,不需要其他家教,清华学生智商120,GPT有140。多用大模型来帮助学习。

学习内容:如上

总结与心得:早上赖床5分钟,成功早起。从17号开始看计算机网络的考试重点.pdf,刚开始觉得难抽象记忆内容多,不过当时提醒自己万事开头难,最难的时候就是进步最快的时候,5天后终于是看完了,之后还要复习模式识别和做这两门课的试卷。最近入睡困难,应该是看手机看多了,睡前冥想会更容易入睡,并且发现专注数数也能马上入睡,今天把健身出发时间改到19.00,看看会不会好入睡。接触深度阅读之后(阅读公众号的文章),自己变得更专注了,很少会思绪不定地打乱手头的专注事。进入学习状态之后,到了休息时间都不会想刷抖音而是想继续学,所以还是要逼自己放下抖音去学习,进入状态之后就好了。今天抢课成功。中午早上的时间都没浪费,下午抖音多刷了25分钟(也就是一次一共刷了40分钟),得改。回宿舍刷了40分钟抖音游戏直播。今天还是比较充实的,以为专注时长会比较高,没想到也就还好,看来抖音拿走的时间还是很多的,明天改改。

《46.全排列》

class Solution(object): def permute(self, nums): """ :type nums: List[int] :rtype: List[List[int]] """ res = [] def backtrack(path,used): if len(path) == len(nums): #错在这里了,注意要用拷贝,不能直接append(path) #在Python中,列表是可变对象,如果直接append(path),那么实际上是将path的引用添加到结果列表res中。在后续的回溯过程中,path会被不断地修改(添加元素和弹出元素),那么之前添加到res中的path也会随之改变,因为它们是同一个对象。因此,我们需要在找到一个完整排列时,将当前path的副本(即一份独立的数据)添加到res中。这样即使后续path发生变化,已经添加到res中的副本也不会受到影响。具体来说,有两种常见方式创建副本:使用切片:path[:];使用copy方法:path.copy() res.append(path[:]) return for i in range(len(nums)): if used[i]: continue used[i]=True path.append(nums[i]) backtrack(path,used) used[i]=False path.pop() backtrack( [], [False]*len(nums) ) return res
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 5:26:10

springboot_ssm819房屋出租系统预约看房--论文

目录具体实现截图摘要系统所用技术介绍写作提纲源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!具体实现截图 摘要 随着互联网技术的快速发展,传统的房屋租赁管理模式已无法满足现代社会的需求。基于SpringBoot和SSM&#…

作者头像 李华
网站建设 2026/4/30 10:16:05

神经网络的时序建模分支发展脉络(1960s-至今)

从带延迟的感知机到Transformer,神经网络在时序数据建模领域的发展,是一部“解决痛点、持续优化”的技术演进史。本文将沿着你给出的时间轴,详细拆解每个阶段模型的核心创新、解决的问题、技术原理及历史意义,完整呈现这条从“静态…

作者头像 李华
网站建设 2026/5/1 5:24:21

传统前馈神经网络(FNN)的前身与发展脉络

传统前馈神经网络(Feedforward Neural Network, FNN)是深度学习的基石架构,其核心特征是信息单向流动——数据从输入层进入,经过隐藏层的逐层变换,最终从输出层输出,层与层之间无反馈连接。 FNN的发展并非一…

作者头像 李华
网站建设 2026/5/1 5:24:23

IPO投资策略:如何评估新上市公司

IPO投资策略:如何评估新上市公司 关键词:IPO投资策略、新上市公司评估、财务分析、行业前景、管理团队 摘要:本文聚焦于IPO投资策略,旨在深入探讨如何全面、科学地评估新上市公司。通过对背景知识的介绍,阐述核心概念及联系,剖析核心算法原理与操作步骤,运用数学模型和公…

作者头像 李华
网站建设 2026/5/1 5:24:15

AI大模型学习全攻略:零基础入门、35岁转行可行性与就业前景

文章探讨35岁转行学习AI大模型的可行性、零基础入门可能性和行业前景。指出35岁转行完全可行,零基础学习者可通过丰富资源掌握技能。AI大模型行业前景广阔,需求增长。文章提供了系统学习路线,包括基础理解、API应用开发、应用架构实践和私有化…

作者头像 李华