比Copilot快两倍!国产编程神器Fitten Code来了 准确率更高
要点:
Fitten Code是一款国产编程神器,比Copilot更快两倍,准确率提高约20%。
支持80多种编程语言,包括Python、Javascript、Java等,且完全免费。
Fitten Code的核心团队毕业于清华大学,基于国产深度学习框架计图(Jittor)和非十研发的代码大模型开发。
在最新发布的非十科技的Fitten Code中,一款国产编程神器在速度、准确率和功能上均超越了Copilot。这款神器支持80多种编程语言,包括Python、Javascript、Java等,并且完全免费。其核心开发团队是清华大学的博士,他们曾推动了计图(Jittor)深度学习框架的开源工作。Fitten Code在多个方面展现了其强大之处,包括代码自动补全、自然语言生成代码、自动添加注释、智能bug查找、解释代码、自动生成单元测试等功能。
官网地址:https://top.aibase.com/tool/fitten-code
文章首先强调Fitten Code相较Copilot更快、更准确,通过对比“编写ResNet模型”任务,显示Fitten Code平均延迟只有300ms,而Copilot首次延迟长达5秒。Pass@1准确率测试中,Fitten Code达到60.1%,显著高于Copilot的49.5%。在复杂算法任务上,Fitten Code展现了其高效性,例如实现O(nlogn)时间复杂度的最长上升子序列算法。
除了速度和准确率,Fitten Code支持80多种语言,而且在功能上也十分全面。从自动代码补全到自然语言生成代码,再到自动添加注释,智能bug查找,以及解释代码的功能,Fitten Code都展现出了其多才多艺。文章还指出,Fitten Code在一次性补全大量代码上相较于其他产品更为高效,平均补全3-5行,大幅提升了补全效率。
最后,文章介绍了Fitten Code的安装方式和团队背景。Fitten Code不仅免费且功能全,其安装方式也非常简单,支持在Visual Studio Code、IntelliJ IDEA、PyCharm等IDE中使用。团队由清华大学博士组成,曾在深度学习框架和大模型领域取得多项成就,包括开源计图框架和发布JNeRF神经渲染库与JittorLLMs大模型推理库。
综合而言,Fitten Code以其超越同类产品的速度、准确率和功能,以及简单易用的特点,成为一款备受关注的国产编程神器。
开源机器学习库vLLM 提升大语言模型推理速度
要点:1、PagedAttention注意力算法通过采用类似虚拟内存和分页技术,可有效管理LLM推理中的关键值缓存内存。2、vLLM服务系统几乎零浪费关键值缓存内存,内部和请求之间灵活共享缓存,大大提升吞吐量。3、配备PagedAttention的vLLM相比HuggingFaceTransformers提升了24倍吞吐量,无需改变模型架构,重新定义了LLM服务的最佳水准。站长网2023-09-18 11:42:450004值得买:“什么值得买”APP将改版 大量使用AI功能
值得买公司近日在机构调研中详细阐述了其三大核心战略项目,并对AIGC业务布局进行了深入介绍。首先,公司正全力推进消费内容社区“什么值得买”APP的产品改版。据悉,这一改版计划将于今年4月30日迎来重大迭代。改版将以用户的消费兴趣为核心,全面优化产品逻辑、内容生产系统和内容分发逻辑,并大量运用AI技术,为用户带来更加智能化、个性化的消费体验。站长网2024-03-08 15:31:180001微信:推荐转发这8个功能给有需要的人 含安静模式、微信刷掌等
今天,微信官方从众多的产品更新中筛选了8个功能,表示它们更值得推荐给有需要的人。这些功能包括安静模式、视频通话、微信支付无障碍优化、银龄守护卡、救命短信、先学后付、微信刷掌以及小程序教育平台。站长网2023-12-26 14:08:320000AI 入侵前端,哪类工程师最危险?
当GPT-4向大家展示了如何用十秒把一个网站的手绘草图变成功能齐全的网站,包括一些炫酷的js链接按钮,技惊四座。不可避免地,前端工程师们也被AI风暴卷到了。当我们把目光转向前端这个发展相对成熟的技术领域。去思考前端开发者们将如何被AI影响,是个有趣的问题还是令人心慌?站长网2023-05-12 20:40:340000谷歌发布 MediaPipe Diffusion 插件 推理效率比ControlNet高20倍以上
谷歌最近发布了MediaPipeDiffusion插件,这是一个可在移动设备上运行的低成本可控文本到图像生成解决方案。该插件可以提取条件图像中的特征,并将其注入到扩散模型的编码器中,以实现对图像生成过程的控制。与ControlNet相比,MediaPipeDiffusion插件的推理效率提高了20倍,在v100上运行甚至可以提速高达100倍。站长网2023-07-13 09:09:070003