- 相關(guān)報(bào)道
- 【財(cái)新周刊】心智|AI會有自我意識嗎
- 【財(cái)新周刊】逐鹿GPT|特稿精選
- 現(xiàn)有預(yù)測都低估了人工智能的影響
- GPT革命|OpenAI創(chuàng)始人呼吁全球合作應(yīng)對人工智能風(fēng)險(xiǎn)
- AI研究者聯(lián)合發(fā)文 提出AI極端風(fēng)險(xiǎn)模型評估新框架
- 新一封公開信引發(fā)爭議 人工智能再陷輿論漩渦
- GPT革命|OpenAI創(chuàng)始人等370多名科技人士聯(lián)名呼吁重視AI風(fēng)險(xiǎn)
- GPT革命|馬斯克等千人聯(lián)署公開信 呼吁暫停訓(xùn)練AI大模型
【財(cái)新網(wǎng)】“誰先獲得不受控制的超級智能并不重要,因?yàn)槊總€(gè)人都會在那一刻死去?!蔽磥砩芯克鶆?chuàng)始人、美國麻省理工學(xué)院(MIT)教授馬克斯·泰格馬克(Max Tegmark)在近期于北京舉辦的智源人工智能大會上作了題為《如何掌控AI》的演講。作為引起全球各界關(guān)注的“暫停AI訓(xùn)練”千人聯(lián)名簽署公開信的發(fā)起人,泰格馬克在會上解釋道,要求暫停AI研究并不是因?yàn)樗磳I,相反,正是因?yàn)榭吹搅似錆摿涂赡軒淼母淖儯畔胍蠹腋?jǐn)慎、更負(fù)責(zé)任地進(jìn)行研究,以確保人工智能(AI)在人類的控制之下。泰格馬克特別強(qiáng)調(diào),即使系統(tǒng)比人類更聰明,只要能證明它是安全的,就無需擔(dān)心。