但神经网络的模型过于复杂,参数过多,很容易出现一些BUG。
简单来说,不是神经网络模型不够好,而是计算资源不够多。
如果李杰不是掏出全新的算法,仅凭他手上的这点资源,哪有资格玩这种东西。
老老实实去玩Transformer模型不好吗?
还真不行。
Transformer模型那是GPT的领域,李杰没想着跟对方竞争。
另外。
他也没想着搞一个什么万能的大模型。
这篇论文的重点在于图片修复,文物修复,其他后续的开发,他只是留了一个引子。
通俗的形容,他在人工智能赛道开了一条新路。
目前,他只开辟了一条很狭小的小道,走图片修复完全没问题。
内容未完,下一页继续阅读