模型训练推理优化实践(一):训练优化
Transformer模型入门

Transformer模型入门

Transformer模型最早是由Google在2017年发布的一篇论文《Attention Is All You Need》中提出。最早该方法用用于翻译任务中,发现性能能够超越之前最优秀的RNN模型。在后一年,Google发表的《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》提出了BERT模型,和OpenAI发布《Improving Language Understanding by Generative Pre-Training》提出了GPT模型,这两个著名的模型奠定了大模型的基础。

阅读更多

TF Lite和Flex 的编译、使用

当谈到深度学习和机器学习框架时,必定绕不开Tensorflow。作为一个备受欢迎的开源工具,它被广泛用于构建、训练和部署机器学习模型。TensorFlow 由 Google 开发,并于2015年首次发布,它的目标是提供一个灵活、可扩展且易于使用的框架,使研究人员和工程师能够快速开发和部署深度学习模型。

阅读更多