本书旨在引领读者从基础知识起步,逐步深入探索大模型的算法原理、训练方法及微调技术。全书共12章,涵盖了Transformer模型的基础理论,如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念;并深入剖析了GPT模型的核心实现与文本生成过程,以及BERT模型的预训练和微调技术。
全部文件97.05MB
从零构建大模型算法、训练与微调_(梁楠)_(Z-Library).epub97.05MB