Stack Overflow 版主罢工抗议平台放宽AI生成内容要求
日前,程序员问答论坛Stack Overflow 版主宣布他们将罢工,理由是该公司禁止在该平台上审核 AI 生成的内容。版主在公司的Meta board上宣布罢工,并发布了一封直接写给Stack Overflow的附信。
上周,Stack Overflow 宣布了其新的审核政策表明,该政策将只在特定情况下删除人工智能生成的内容,声称人工智能发布的帖子过度审核会拒绝人类贡献者。生成的内容,声称对人工智能发布的帖子的过度审核正在损害人类贡献者。

该公司还在其帖子中表示,为了管理人工智能内容,需要使用严格的标准。在公开发布之前,该指令还私下传达给了平台的审核团队。该网站的版主声称,这一指令将允许经常不正确的人工智能内容在论坛上泛滥成灾,同时对Stack Overflow 溢出表示不满,因为没有更有效地沟通这一新政策。
信中写道,Stack Overflow, Inc. 已下令几乎完全禁止审核 AI 生成的内容,因为大量此类内容被发布到 Stack Exchange 网络并随后从 Stack Exchange 网络中删除,这默认允许不正确信息的扩散(“幻觉” ”)和 Stack Exchange 网络上不受约束的剽窃。这对平台及其内容的完整性和可信度构成了重大威胁。Stack Overflow 网络中的一小部分版主 (11%) 已经停止参与多项活动,包括审核内容。
版主表示,他们试图通过适当的渠道表达对公司新政策的担忧,但他们的焦虑被置若罔闻。因此计划无限期罢工,并将停止所有行动,包括关闭帖子、删除帖子、标记答案和其他有助于网站维护的任务,直到撤回 AI 政策。
AI最近一直在改变 Stack Overflow,无论好坏。Stack Overflow 证实,由于 OpenAI 的 ChatGPT,流量正在下降,因为越来越多的程序员开始转向聊天机器人来调试他们的代码,而不是在论坛上等待人工回复。
网络分析公司 SimilarWeb 在4月份报告称,自2022年初以来,Stack Overflow 的流量每月都在下降,平均降幅为6%。3月份,Stack Overflow 的流量比2月份下降了13.9%,4月份,该网站的流量比3月份下降了17.7%。
大唐孤勇者、晚清民族魂,为何我们喜欢在「抖音精选」看中国历史?
当前,历史内容正在以更贴合用户观看习惯的方式呈现。更多爱好者可以通过视频新鲜、有趣的表现方式,更沉浸地感受到历史文化的独特魅力。这也促使一批内容创作者,开始通过专业深度的视频内容呈现先秦到新中国的各段历史。0000百度输入法推出“百度输入法VIP”:每月22.8元 免费体验AI功能
百度输入法发布了12.2.0版本更新,其中一项重要功能是推出了“百度输入法VIP”。这一特权服务提供了多项免费权益,包括皮肤字体免费使用等。对于连续包月的用户,首月只需支付5.8元,之后每月为22.8元。在这次更新中,百度输入法VIP的主要特权集中在“商城内容免费”和“AI功能免费”两个方面。站长网2024-02-04 10:08:010000开源大模型训练框架Megatron-LLaMA来了 32卡训练可加速176%
要点:淘天集团联合爱橙科技正式对外开源大模型训练框架Megatron-LLaMA,以提高大语言模型训练性能,降低训练成本。测试显示,相比HuggingFace代码,Megatron-LLaMA在32卡训练上获得176%的加速;在大规模训练上表现出几乎线性的扩展性。Megatron-LLaMA已在GitHub开源,将持续关注社区发展,与开发者共同推进自适应配置、更多模型支持等方向。站长网2023-09-12 15:20:1300022024财富缩水最多的5位亿万富豪:拼多多创始人黄峥上榜 今年夏天还是中国首富
快科技12月25日消息,今日,福布斯发布2024财富缩水最多的5位亿万富豪,其中1位来自中国拼多多创始人黄峥上榜。在线零售商Temu母公司拼多多创始人、前董事长黄峥在今年夏天曾是中国首富。然而,自8月以来,由于第二季度收益未达预期,拼多多股价骤降31%,黄峥因此失去了中国首富的头衔。截至年底,他的财富比年初缩水了153亿美元,以360亿美元的财富值位列中国富豪榜第四名。0000Hugging Face发布高度优化的Zephyr-7B迷你语言模型 媲美70亿参数Llama-2
**划重点:**1.🌐HuggingFace基于欧洲初创公司MistralAI的开源模型Mistral7B,推出了Zephyr-7B迷你语言模型,并通过蒸馏监督微调(dSFT)方法对其进行了精细优化。2.⚙️Zephyr-7B采用了蒸馏直接偏好优化(dDPO)方法,使用一组“教师”模型的输出作为偏好数据,显著缩短了训练时间,降低了所需资源。站长网2023-11-30 11:25:430001