波波算法笔记

Bob Peng

最新文章

我没有项目实习可以给个工作机会吗解答计算机找工作的问题

我没有项目实习可以给个工作机会吗解答计算机找工作的问题

”我没有项目/实习,可以给个工作机会吗?“ 最近3月份已然到了春招的时期,各个大厂小厂都陆续开启了招聘。机会是最多的时候,也是最容易找到工作的时候。尤其是应届与实习。 机会与岗位很多,可是最近很多小伙伴陆陆续续都在问我:怎么找实习?没有项目经验和实习经验怎么办?好焦虑!
2
0
0
2025-03-31
我为什么选择大一大二就去实习

我为什么选择大一大二就去实习

我为什么选择大一大二就去实习? 上面我就有分享过,学校在计算机教育方面实在是太落后了,在你掌握基础知识过后,完全没必要继续待在学校学习,不要想着去在学校能够有更大的提升,因为只要你在学校,哪怕你做得更好,上限也就在那里了,做到最后也只是你认知中的很不错,但是学校,这个圈子本身就已经界定好了,你的对技
0
0
0
2025-03-31
新型AI大模型微调方式ReFT表征微调

新型AI大模型微调方式ReFT表征微调

新型AI大模型微调方式:ReFT 表征微调 ReFT (表征微调) 本文主要介绍 ReFT(表征微调),这是一种比 PeFT(参数高效微调)效果更好的新的大语言模型微调技术。 背景 PEFT PEFT (Parameter-Efficient Fine-Tuning,参数高效微调) 是一种仅微调少量
2
0
0
2025-03-31
新一代模型微调方案LLamaPro快来围观

新一代模型微调方案LLamaPro快来围观

新一代模型微调方案LLama-Pro ,快来围观!!! LLAMA PRO论文笔记 直达链接: 摘要 这篇论文介绍了一种名为LLAMA PRO的新型后预训练方法,用于增强大型语言模型(LLMs)在特定领域的性能,同时保持其原有的通用能力。通过扩展Transformer块来增加模型的深度,从而在不牺牲
3
0
0
2025-03-31
用RAG技术让大模型开卷考试建立私人数据库

用RAG技术让大模型开卷考试建立私人数据库

用RAG技术让大模型开卷考试,建立私人数据库 最近一段时间在研究大模型Agent的项目,其中包含一个技术叫做RAG,如果你不是很清楚原理,此文可带你从零理解RAG基本原理,并且构造一个自己的知识数据库。 ps:注意此文的所有代码都只适用于学习原理,切忌部署于生产环 什么是RAG? 检索增强生成(RA
1
0
0
2025-03-31
用softmax回归来分类图片

用softmax回归来分类图片

用softmax回归来分类图片 前言 嘿!这里是笔者的《动手学深度学习》v2学习篇,最近一段时间由于工作需要,目前在深度学习“深度学习” ![](https://res.wx.qq.com/t/wx_fed/we- emoji/res/v1.3.10/assets/newemoji/2_06.png
0
0
0
2025-03-31
一个计算机专业人士看OpenAIGPT4O发布会后的感受

一个计算机专业人士看OpenAIGPT4O发布会后的感受

一个计算机专业人士看OpenAI(GPT-4O)发布会后的感受 本次发布会性质属于产品更新,新模型Gpt4O的 多模态能力 (文本、视频、音频)大幅度提升。下面我会对发布会要点、Gpt4O功能进行介绍,并且谈谈个人感受。 Gpt4O相关事项: 1. Gpt4O未来提供电脑版本应用 2.
1
0
0
2025-03-31
有关transformer那些事两篇文章带你弄懂一

有关transformer那些事两篇文章带你弄懂一

有关transformer那些事,两篇文章带你弄懂!(一) transformer架构 先上图: 左半部分为输入分词向量嵌入层、N个Encoder 右边部分为当前位置输入层、N个Decoder、线性映射层 transformer架构中的数据流 tokenizer + position encodin
0
0
0
2025-03-31
有关模型与数据集下载

有关模型与数据集下载

有关模型与数据集下载 相信大家在学习AI大模型时一定遇到过有关模型与数据集下载的问题。 本次笔者就分享一下自己的解决方法。 huggingface Hugging Face 是一个旨在推动自然语言处理(NLP)技术和工具发展的开源社区和公司。他们致力于提供各种NLP任务中的最新技术、模型和工具,以及
1
0
0
2025-03-31
有关线性回归模型训练的基本思路

有关线性回归模型训练的基本思路

有关线性回归模型训练的基本思路 前言 嘿!这里是笔者的《动手学深度学习》v2学习篇,最近一段时间由于工作需要,目前在深度学习“深度学习” ![](https://res.wx.qq.com/t/wx_fed/we- emoji/res/v1.3.10/assets/newemoji/2_06.png
0
0
0
2025-03-31