回应模式 - No.65314302


No.65314302 - 技术宅


无标题无名氏No.65314302 只看PO

2025-02-18(二)13:05:45 ID:dJv5Q9g 回应

现在各位使用的代码补全方案是什么?
用的哪家模型| ω・´)

无标题无名氏No.65383420

2025-02-26(三)14:34:38 ID: Y3kRs3q

分享图片

无标题无名氏No.65383429

2025-02-26(三)14:35:05 ID: Y3kRs3q

>>No.65383420
有非法词,不知道是什么

无标题无名氏No.65383926

2025-02-26(三)15:36:24 ID: KtDTK91

代码补全一般传统方案效果很好。
我猜你可能想了解例如copilot或者cursor这种代码生成方案。
如果说收费的话,直接用copilot就好了,或者用cursor。
如果是想自己弄,例如cursor去接入别的模型,或者给公司搞方案,那之前我用过codellama,效果可以。
其实现在可以直接上deepseek r1,不过估计要自行做一个包装,deepseek之前有个deepseek coder v2,基于deepseek v2的,效果一般。目前没有基于r1的coder模型,我估计应该能力都集中到r1了。
我以前做过公司内部的AI代码生成的插件,不过后来项目交接了,我现在没有搞这些,所以细节也不是很清楚了。

无标题无名氏No.65404599

2025-02-28(五)21:27:49 ID: oComTmr

公司项目用的jetbrains AI,模型当前用的Claude 3.5 Haiku,大多数只是作为注释生成器,毕竟大型屎山写提示词跟给AI擦屁股的时间比手动实现还慢。

就我个人体验来说大型项目用cursor之类的全局补全体验并不好,个人搞的小玩具倒是体验不错。

无标题无名氏No.65406977

2025-03-01(六)03:47:14 ID: Gs2SdhS

code领域,reasoning模型o1第一,非reasoning,claude领先幅度很大。
不过对于代码补全来讲,延迟对用户体验影响更大,cursor即使用第三方模型,所有请求也一定要过他们的服务器。或许可以看看字节阿里的方案,国内延迟会更低。

无标题无名氏No.65406979

2025-03-01(六)03:48:52 ID: Gs2SdhS

字节的是marscode,阿里的是lingma