AI安全辩论:Sam Altman剑桥演讲遭抵制、Llama 2被曝存在潜在风险
要点:
1. Sam Altman在剑桥活动中遭到抵制,引发全球AI安全讨论升级,包括联名信呼吁对人工智能制定国际条约。
2. MIT的研究指出,开源的Llama2存在潜在风险,可能被滥用以获取危险知识,呼吁采取法律行动限制模型权重公开。
3. AI巨头分为「开源派」和「毁灭派」,各持己见,一方要求更加开放,另一方主张制定条约以防止AI灭绝人类,引发激烈辩论。
当前,全球正掀起一场激烈的AI安全讨论,其中三个关键要点引起广泛关注。首先,OpenAI的CEO Sam Altman在剑桥举办的活动中遭到了抵制,抗议者要求停止AI竞赛,导致全球AI安全讨论再次升级。
不仅如此,AI巨头分为两派,一派是「开源派」,包括LeCun和吴恩达,他们主张更加开放的AI开发。另一派是「毁灭派」,由Bengio和马库斯领导,他们呼吁制定国际条约以防止AI灭绝人类。这两派分歧激烈,继续辩论不休。
论文地址:https://arxiv.org/ftp/arxiv/papers/2310/2310.18233.pdf
其次,来自MIT等机构的研究表明,开源的Llama2模型存在潜在风险。在一项黑客马拉松中,参赛者试图获取西班牙大流感病毒的传染性样本,发现经过微调的Spicyboro模型可以轻松获得有关病毒样本的信息,甚至不需要病毒学知识。这引发了对模型滥用的担忧,研究人员呼吁采取法律行动来限制模型权重的公开。
最后,AI巨头们发出联名信,其中Bengio领头,呼吁制定国际AI条约,以确保AI的发展不会带来潜在的灾难性风险。已有300多名专家签署了这封信,包括马库斯和Max Tegmark等知名专家。
这封信提出了一些核心内容,包括设定全球计算阈值、建立AI安全联合实验室、提供安全的AI接口以减少危险AI发展竞赛,以及设立国际委员会监督条约遵守情况。这些举措旨在确保AI的安全、负责任发展,以造福人类。
总之,全球AI安全讨论正在升级,涵盖了Sam Altman遭抵制、Llama2开源模型的潜在风险以及AI巨头们的辩论。这些讨论反映了对AI的不同看法和担忧,以及对安全措施的需求,以确保AI技术的安全和负责任发展。
阿斯利康与 AI 生物制药公司 Absci 签署价值 2.47 亿美元的协议:合作开发抗癌药物
英国和瑞典的制药公司阿斯利康与美国人工智能(AI)生物制剂公司Absci签订了一项价值高达2.47亿美元的协议,以设计一种用于对抗抗癌症的抗体,Absci在周日的一份声明中说。Absci与阿斯利康的合作旨在开发一种零次生成AI模型,该模型旨在创建新的和改进的抗体治疗法。该公司没有说明他们计划针对哪种类型的癌症。0000刚刚!公众号能修改图片了!
盼星星盼月亮!终于盼到了公众号这项重大更新——文章支持修改图片了!(想省略操作过程演示的小伙伴,可以直接拉到最后看注意事项)今天,公众号后台弹窗显示“新增图片的修改”。具体来说,点击图片后,可删除或替换图片,最多支持3张图片内的修改。从公众号后台的文章修改入口进入,点击需要修改的图片,就会弹出“替换”和“修改”两个功能选项。站长网2023-08-15 16:57:570000这届AI厂家,同质下同焦虑
这届WAIC世界人工智能大会上,每家AI企业似乎都找了自己的PMF(产品市场契合点)。2023年是国产大模型元年,腾讯、字节、百度等众多大模型进入市场,正式开启对外服务,月之暗面、智谱AI等创业公司也形成“五小虎”的格局。迭代发展一年后,大模型选手们都已走向台前,给了AI行业更多的机会和答案。0000Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
【新智元导读】HuggingFace作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。HuggingFace上最受欢迎的15个AI公司出炉了!目前的冠军,是StabilityAI。开源英雄MetaAI,取得亚军之位。而我们熟知的微软、谷歌、OpenAI,分别名列第八、九、十的位置。站长网2023-11-24 15:13:080000华为周斌:AI算力需求正快速增加
据中证网报道,华为昇腾计算业务CTO周斌在中关村论坛活动期间接受采访时表示,人工智能大模型浪潮带来算力需求的快速增加,并且这个需求是有价值的,不是泡沫。周斌解释道,“AI算力行业出现一个新定律,叫做AI算力增长曲线,这个定律告诉我们大概每隔4个月,AI计算需求就会翻倍。这比‘摩尔定律’更有效地体现在算力需求上。”站长网2023-05-26 15:33:430000