首页
智能设备
数据安全
绿色科技
栏目分类

数据安全

你的位置:未来探索网 > 数据安全 > 黄仁勋谈AI近况:仍需数年才能达到“高度真确”

黄仁勋谈AI近况:仍需数年才能达到“高度真确”

发布日期:2024-12-22 07:16    点击次数:130

黄仁勋谈AI近况:仍需数年才能达到“高度真确”

黄仁勋以为,咱们距离一个不错“高度信任”的AI系统仍有“数年之遥”。悉数这个词行业也在从头念念考如安在有限数据和资源下更灵验地熟习模子。

尽管东谈主工智能正在赶紧发展,但离一个不错高度信任的AI系统仍有距离。黄仁勋强调,在畴昔数年内,握续进步策画才和解探索新的举止将是要道任务。同期,行业正从头念念考如安在有限数据和资源下更灵验地熟习模子,以断绝更可靠、更重大的东谈主工智能欺诈。

英伟达(NVDA.O)首席实施官黄仁勋近日暗示,目下的东谈主工智能并不成提供最优解答,咱们距离一个不错“高度信任”的AI系统仍有“数年之遥”。

“目下咱们得到的谜底还远非最好谜底,”黄仁勋在香港科技大学的采访中说谈。他指出,东谈主们应该不需要对AI的回答心存疑虑,比如它是否“幻觉化”或是否“合理”。

“咱们必须达到这么一个阶段——你大体上不错信任AI的回答……而要断绝这少量,我以为咱们还稀有年的路要走。在此时代,咱们需要箝制进步策画才调。”

大言语模子的局限性:幻觉和数据瓶颈

像ChatGPT这么的言语模子在曩昔几年中赢得了指数级的跨越,大概回报恩杂问题,但依然存在诸多适度。其中,“幻觉”,即生成罪状或不存在的谜底,是AI聊天机器东谈主的握续问题。

举例,旧年一位播送主握东谈主就因ChatGPT虚拟了一份罪状的法律指控文献而告状OpenAI,此后者未对此作出恢复。

此外,一些AI公司正濒临如安在有限数据资源下激动大言语模子(LLM)发展的窘境。黄仁勋暗示,仅依靠预熟习,即在大领域、万般化的数据集上对模子进行熟习,并不及以开导出功能重大的AI。

“预熟习——自动从宇宙上的所稀有据中发现学问——是不够的……就像大学毕业是一个迫切的里程碑,但它并不是荒谬。”

曩昔几年,科技公司如OpenAI、Meta和谷歌专注于相聚海量数据,假定更多的熟习数据会汲引更智能、更重大的模子。但是,这种传统举止如今正受到质疑。

转念念念路:超过“盲目扩展”

研究标明,基于Transformer的神经相聚(LLM的中枢本领)在数据量和策画才调增多时性能呈线性增长。但是,业界教化者开动担忧这一计谋的局限性,并尝试探索替代举止。

Scale AI首席实施官Alexandr Wang暗示,AI投资主要基于这种“扩展定律”的假定,但当今它已成为“悉数这个词行业的最大问题”。

Cohere公司首席实施官Aidan Gomez以为,天然增多策画才和解模子领域如实能进步性能,但这种举止有些“机械化”。“这种举止虽可靠,却显得有些愚蠢,”他在播客中说谈。Gomez提议开导更小、更高效的模子,这种举止因其资本效益受到复旧。

其他东谈主则系念,这种举止可能无法断绝“通用东谈主工智能”(AGI,即匹配或超过东谈主类智能的表面AI步地)。

前Salesforce高管、AI搜索引擎You.com首席实施官Richard Socher暗示,大言语模子的熟习神气过于浅近化,只是是“基于已知的token展望下一个token”。他以为,更灵验的熟习神气是将就模子将问题辗转为策画机代码,并基于代码的输出身成谜底。这种举止能减少在定量问题上的幻觉,并增强AI才调。

行业不雅点分化:领域扩展是否见顶?

但是,并非悉数行业教化者齐以为东谈主工智能也曾遭受了领域彭胀的挫折。

微软首席本领官Kevin Scott握不同不雅点。他在7月的采访中暗示:“与其他东谈主的宗旨不同,咱们尚未达到扩展领域的旯旮收益递减阶段。”

OpenAI也在戮力转变现存的大言语模子。举例,9月发布的o1模子仍基于Socher提到的token展望机制,但其在惩办定量问题(如编程和数学)方面愈加出色,与更通用的ChatGPT有所不同。

前Uber工程师Waleed Kadous将两者进行了类比:“若是将GPT-4拟东谈主化,它更像是一个知谈一切的一又友,在回答问题时会连气儿箝制,让你从中筛选有价值的信息。而o1更像是阿谁仔细倾听后千里念念一霎,再给出一两句因事为制谜底的一又友。”

但是,o1模子需要更多策画资源,导致运行速率更慢、资本更高。