0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Claude在MLIR代碼分析上完全超越了ChatGPT

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-04-19 10:25 ? 次閱讀

Claude在MLIR代碼分析上完全超越了ChatGPT并表現(xiàn)十分驚艷,請閱讀全文或者自己注冊感受它的強(qiáng)大。

0x0. 前言

這里將以oneflow IR部分中的一個(gè)Codegen任務(wù)(目標(biāo)是在mlir codegen中支持oneflow stream,用oneflow stream替換pass中自己生成的stream,PR鏈接為:https://github.com/Oneflow-Inc/oneflow/pull/10149)為例,來對比一下chatgpt和claude對mlir的理解能力。claude是Anthropic公司推出的類似于chatgpt的聊天機(jī)器人,這家公司是OpenAI的最大競爭對手之一,因?yàn)閯?chuàng)辦這家公司的人也是OpenAI的前員工。本次使用的chatgpt可以在這個(gè) https://chatbot.theb.ai/#/chat/1002 訪問。然后Claude是參考這個(gè)issue: https://www.zhihu.com/question/594115372/answer/2988759047 將其直接添加到slack里進(jìn)行對話。

0x1. PR簡介

PR鏈接為:https://github.com/Oneflow-Inc/oneflow/pull/10149

這個(gè)PR實(shí)現(xiàn)了3個(gè)Pass (定義在 OneFlowPasses.td),也就是:

defEliminateAllocOpsPass:Pass<"eliminate-alloc-ops","ModuleOp">{
letsummary="";
letconstructor="mlir::createEliminateAllocOpsPass()";
letdependentDialects=["pdl_interp::PDLInterpDialect","pdl::PDLDialect"];
}

defAppendOneFlowStreamPass:Pass<"append-ofstream","ModuleOp">{
letsummary="appendoneflowstreamtogpufunctionarguments";
letconstructor="mlir::createAppendOneFlowStreamPass()";
}

defMgpuToOneFlowStreamPass:Pass<"mgpu-to-ofstream","ModuleOp">{
letsummary="convertmlirabiaboutmgputooneflowstream,thispassshouldbeinvokedafterappend-ofstreampass";
letconstructor="mlir::createMgpuToOneFlowStreamPass()";
}

EliminateAllocOpsPass用來消除IR中的無效memref.alloc指令,AppendOneFlowStreamPass給GPU相關(guān)的函數(shù)添加GPU啟動(dòng)kernel需要的stream參數(shù),MgpuToOneFlowStreamPass發(fā)生在AppendOneFlowStreamPass執(zhí)行之后(它生成了stream參數(shù))并把mgpu相關(guān)的stream abi替換為oneflow stream abi。

我們分別使用newbing和claude來讓它們分析一下這幾行OneFlowPasses.td中定義的Pass意圖:

newbing:

bee91486-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

newbing直接看不懂,其實(shí)我感覺claude也應(yīng)該看不懂吧,抱著懷疑的態(tài)度問一下。

bf147b6c-de08-11ed-bfe3-dac502259ad0.pngbf1c3172-de08-11ed-bfe3-dac502259ad0.png

太瘋狂了,claude不僅讀懂了td文件的代碼,甚至為我們列出了這個(gè)代碼涉及到的MLIR概念。感覺是訓(xùn)練數(shù)據(jù)考慮了MLIR相關(guān)的預(yù)料?接下來我們再對比下C++實(shí)現(xiàn)的Pass代碼。

0x2. 對比具體實(shí)現(xiàn)

PR鏈接為:https://github.com/Oneflow-Inc/oneflow/pull/10149

0x2.1 EliminateAllocOpsPass

EliminateAllocOpsPass使用MLIR提供的PDL語言來完成Pattern的匹配和重寫,具體實(shí)現(xiàn)在 oneflow/ir/lib/OneFlow/PDLL/AllocEliminationPatterns.pdll

#include"OneFlow/OneFlowOps.td"

ConstraintIsFuncArguments(value:Value)[{
returnsuccess(llvm::dyn_cast(value));
}];

Pattern{
letalloc=op();
letcopy=op(alloc.0,arg:IsFuncArguments);

rewriteallocwith{
erasecopy;
replaceallocwitharg;
};
}

接下來,我們分別對比一下newbing和chatgpt對它的分析結(jié)果。

bf354ce8-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

newbing并不能解析出這段代碼是MLIR的PDL語言,當(dāng)然也無法理解代碼內(nèi)容。我們可以再使用Claude試試。

bf498b22-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述bf5334ba-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

個(gè)人感覺這個(gè)解釋是非常強(qiáng)大且精準(zhǔn)的,Claude的答案非常驚艷。

0x2.2 AppendOneFlowStreamPass

接下來我們看一下AppendOneFlowStreamPass的實(shí)現(xiàn),這個(gè)實(shí)現(xiàn)是在oneflow/ir/lib/OneFlow/Transform/OneFlowStream.cpp這個(gè)文件,具體代碼如下:

structAppendOneFlowStreamPatternfinal:publicOpRewritePattern{
public:
explicitAppendOneFlowStreamPattern(mlir::MLIRContext*context)
:OpRewritePattern(context,/*benefit=*/0){}
mlir::LogicalResultmatchAndRewrite(func::FuncOpop,
mlir::PatternRewriter&rewriter)constoverride{
autoptr_type=LLVM::get(rewriter.getContext(),8));
if(llvm::dyn_cast(op.getFunctionType().getInputs().back()))
returnsuccess();

llvm::SmallVectornew_operand_type;
for(autotype:op.getFunctionType().getInputs()){new_operand_type.push_back(type);}
new_operand_type.push_back(ptr_type);
autofunction_type=
rewriter.getFunctionType(new_operand_type,op.getFunctionType().getResults());

autofunc=rewriter.create(op.getLoc(),op.getName(),function_type);
for(autopair:op->getDialectAttrs()){func->setAttr(pair.getName(),pair.getValue());}
op.getBody().addArgument(ptr_type,func->getLoc());
IRMappingbvm;
op.getRegion().cloneInto(&func.getRegion(),bvm);
rewriter.eraseOp(op);
returnsuccess();
}
};

c++代碼newbing(chatgpt)按道理可以看懂了,我們讓它分析一下:

bf5b1db0-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

直接問chatgpt,它還是不懂這段代碼。我手動(dòng)提示了下它說,這段代碼定義了一個(gè)mlir pattern,然后它先是重復(fù)我的話給出了一段回答。然后接下來就是胡說八道了,在這個(gè)例子中表現(xiàn)很差。接下來我們拷問一下Claude:

bf64d148-de08-11ed-bfe3-dac502259ad0.pngbf6cf44a-de08-11ed-bfe3-dac502259ad0.png

我們繼續(xù)問一下c++代碼中的一些細(xì)節(jié):

bf947966-de08-11ed-bfe3-dac502259ad0.pngbfaa9d18-de08-11ed-bfe3-dac502259ad0.png

非常強(qiáng)大,給出的解釋大多比較精準(zhǔn),并且似乎Claude真的完全理解了這段代碼的邏輯。我們需要注意的是,這段代碼是我同事今天才寫的,模型的泛化性真的很好。

MgpuToOneFlowStreamPass

我們最后再分析下MgpuToOneFlowStreamPass的實(shí)現(xiàn)。

structMgpuToOneFlowStreamPatternfinal:publicOpRewritePattern{
public:
explicitMgpuToOneFlowStreamPattern(mlir::MLIRContext*context)
:OpRewritePattern(context,/*benefit=*/0){}
mlir::LogicalResultmatchAndRewrite(LLVM::CallOpop,
mlir::PatternRewriter&rewriter)constoverride{
autoptr_type=LLVM::get(rewriter.getContext(),8));
autofunc=op->getParentOfType();
autocallee=op.getCallee();
if(!func||!callee)returnfailure();
Valuestream=func.getArguments().back();
if(stream.getType()!=ptr_type){
LOG(ERROR)<"failedtofindstreaminllvm.funcblockarguments";
returnfailure();
}

DenseMapstd::pair<std::function<bool(LLVM::CallOp&,Value&)>,
std::function<void(mlir::PatternRewriter&,LLVM::CallOp&,Value&)>>>
oneflow_abi={
{"mgpuStreamCreate",
{[](LLVM::CallOp&op,Value&stream){returntrue;},
[](mlir::PatternRewriter&rewriter,LLVM::CallOp&op,Value&stream){
rewriter.replaceOp(op,{stream});
}}},
{"mgpuLaunchKernel",
{[](LLVM::CallOp&op,Value&stream){
unsignedidx=op->getNumOperands();
returnop.getOperand(idx-3)!=stream;
},
[](mlir::PatternRewriter&rewriter,LLVM::CallOp&op,Value&stream){
unsignedidx=op->getNumOperands();
autotarget=op.getOperand(idx-3).getDefiningOp();
rewriter.replaceOp(target,{stream});
}}},
{"mgpuStreamSynchronize",
{[](LLVM::CallOp&op,Value&stream){returntrue;},
[](mlir::PatternRewriter&rewriter,LLVM::CallOp&op,Value&stream){
rewriter.eraseOp(op);
}}},
{"mgpuStreamDestroy",
{[](LLVM::CallOp&op,Value&stream){returntrue;},
[](mlir::PatternRewriter&rewriter,LLVM::CallOp&op,Value&stream){
rewriter.eraseOp(op);
}}},
};
autoout=oneflow_abi.find(callee.value().str());
if(out!=oneflow_abi.end()&&out->getSecond().first(op,stream)){
out->getSecond().second(rewriter,op,stream);
}
returnsuccess();
}
};

還是先讓chatgpt分析下:

bfc2a890-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

回答還是比較模棱兩可,并且可以確定的事情是chatgpt完全沒有理解這段代碼。

接下來還是使用Claude來測試下:

bfcd130c-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

這個(gè)地方讓我震驚的點(diǎn)是,它不僅理解了這段代碼,而且知道在MLIR里面這段代碼只是一個(gè)Pattern規(guī)則,如果要應(yīng)用這個(gè)規(guī)則需要在MLIR里面再構(gòu)建一個(gè)Pass。最后我們再讓Claude給我們一些Review意見:

bfd722ca-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

這里的第4點(diǎn)提示讓我感到有些疑惑,我還請教了下同事,順便讓同事補(bǔ)充一下注釋。

bfed8c0e-de08-11ed-bfe3-dac502259ad0.png在這里插入圖片描述

整體來說,在閱讀MLIR代碼方面,Claude已經(jīng)相當(dāng)智能,全面領(lǐng)先Newbing(Chatgpt),感覺以后可以日常用Claude來輔助Review IR相關(guān)代碼。

0x3. 總結(jié)

我這里以MLIR的一個(gè)任務(wù)對比了一下ChatGpt和Claude,我感受到了Calude的強(qiáng)大之處。雖然暫時(shí)還沒有評測過別的任務(wù),但我已經(jīng)被Calude表現(xiàn)出來的代碼分析能力所震撼。我們甚至可以將Claude作為一個(gè)入門AI編譯器的入門工具


審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4650

    瀏覽量

    128490
  • 編譯器
    +關(guān)注

    關(guān)注

    1

    文章

    1608

    瀏覽量

    48986
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1536

    瀏覽量

    7286

原文標(biāo)題:0x3. 總結(jié)

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    TPU-MLIR開發(fā)環(huán)境配置時(shí)出現(xiàn)的各種問題求解

    /workspace/model-zoo 2.4. 代碼編譯? docker的容器中, 代碼編譯方式如下: $ cd tpu-mlir$ source ./envsetup.sh$
    發(fā)表于 01-10 08:02

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    ChatGPT就是GPT-3的基礎(chǔ)通過指令微調(diào)后得到的。 圖源:OpenAI官網(wǎng) 結(jié)果,2022年年底ChatGPT實(shí)現(xiàn)現(xiàn)象級
    發(fā)表于 03-03 14:28

    AI編譯器:ChatGptClaude有何區(qū)別

    整體來說,閱讀MLIR代碼方面,Claude已經(jīng)相當(dāng)智能,全面領(lǐng)先Newbing(Chatgpt),感覺以后可以日常用
    發(fā)表于 04-19 10:23 ?1743次閱讀

    ClaudeMLIR代碼分析完全超越ChatGPT并表現(xiàn)十分驚艷

    EliminateAllocOpsPass用來消除IR中的無效memref.alloc指令,AppendOneFlowStreamPass給GPU相關(guān)的函數(shù)添加GPU啟動(dòng)kernel需要的stream參數(shù),MgpuToOneFlowStreamPass發(fā)生在AppendOneFlowStreamPass執(zhí)行之后(它生成了stream參數(shù))并把mgpu相關(guān)的stream abi替換為oneflow stream abi。
    的頭像 發(fā)表于 04-24 14:28 ?3183次閱讀
    <b class='flag-5'>Claude</b><b class='flag-5'>在</b><b class='flag-5'>MLIR</b><b class='flag-5'>代碼</b><b class='flag-5'>分析</b><b class='flag-5'>上</b><b class='flag-5'>完全</b><b class='flag-5'>超越</b><b class='flag-5'>了</b><b class='flag-5'>ChatGPT</b>并表現(xiàn)十分驚艷

    如何設(shè)計(jì)MLIR的Dialect來GPU生成高性能的代碼?

    為什么又要開一個(gè)新坑?原因是,最近在做的項(xiàng)目都是和MLIR有關(guān),并且發(fā)現(xiàn)自己已經(jīng)MLIR的研發(fā)道路上越走越遠(yuǎn)了。
    的頭像 發(fā)表于 05-10 14:57 ?1648次閱讀
    如何設(shè)計(jì)<b class='flag-5'>MLIR</b>的Dialect來<b class='flag-5'>在</b>GPU<b class='flag-5'>上</b>生成高性能的<b class='flag-5'>代碼</b>?

    ChatGPT上線最強(qiáng)應(yīng)用:分析數(shù)據(jù)、生成代碼都精通

    Code Interpreter,語言模型不僅可以生成代碼,還可以獨(dú)立執(zhí)行代碼。這個(gè)插件允許用戶直接在 ChatGPT 對話窗口直接調(diào)用 Python,直接進(jìn)行數(shù)據(jù)上傳、下載、
    的頭像 發(fā)表于 07-13 14:52 ?872次閱讀
    <b class='flag-5'>ChatGPT</b>上線最強(qiáng)應(yīng)用:<b class='flag-5'>分析</b>數(shù)據(jù)、生成<b class='flag-5'>代碼</b>都精通

    ChatGPT最強(qiáng)競品Claude2來代碼、GRE 成績超越GPT-4,免費(fèi)可用

    機(jī)器之心在此前的文章中多次介紹過 Claude,它是由 OpenAI 離職人員創(chuàng)建的 Anthropic 公司打造的。 ChatGPT 發(fā)布兩個(gè)月后,該公司就迅速開發(fā)出了 Claude
    的頭像 發(fā)表于 07-14 15:21 ?919次閱讀
    <b class='flag-5'>ChatGPT</b>最強(qiáng)競品<b class='flag-5'>Claude</b>2來<b class='flag-5'>了</b>:<b class='flag-5'>代碼</b>、GRE 成績<b class='flag-5'>超越</b>GPT-4,免費(fèi)可用

    你的自選股里,99%的ChatGPT概念股沒有技術(shù)含量

    Claude是人工智能初創(chuàng)公司Anthropic發(fā)布的一款類似ChatGPT的軟件,它的創(chuàng)始團(tuán)隊(duì)基本都是來自O(shè)penAI,并被谷歌注資。從體驗(yàn)上來說,是目前僅次于ChatGPT的對話
    的頭像 發(fā)表于 08-14 11:36 ?844次閱讀
    你的自選股里,99%的<b class='flag-5'>ChatGPT</b>概念股沒有技術(shù)含量

    如何適配新架構(gòu)?TPU-MLIR代碼生成CodeGen全解析!

    背景介紹TPU-MLIR的CodeGen是BModel生成的最后一步,該過程目的是將MLIR文件轉(zhuǎn)換成最終的Bmodel。本文介紹CodeGen的基本原理和流程,并記錄了針對BM1684X等新架構(gòu)
    的頭像 發(fā)表于 11-02 08:34 ?1535次閱讀
    如何適配新架構(gòu)?TPU-<b class='flag-5'>MLIR</b><b class='flag-5'>代碼</b>生成CodeGen全解析!

    Anthropic發(fā)布Claude 3系列,超越GPT-4和Gemini Ultra

    人工智能領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,包括Claude 3 Opus、Claude 3 Sonnet和Claude 3 Haiku。據(jù)該公司稱
    的頭像 發(fā)表于 03-05 09:43 ?551次閱讀

    Anthropic發(fā)布Claude 3,單詞處理能力是ChatGPT近50倍

    人工智能領(lǐng)域的初創(chuàng)公司Anthropic近日宣布推出其最新型的聊天機(jī)器人——Claude 3。據(jù)公司透露,Claude 3的單詞處理能力是知名聊天機(jī)器人ChatGPT的近50倍,單次可處理約15萬個(gè)單詞,這一突破性的進(jìn)展
    的頭像 發(fā)表于 03-06 11:21 ?747次閱讀

    Anthropic 發(fā)布 Claude 3 系列大模型和 AI 助手

    的表現(xiàn)超越 GPT-4/3.5 和 Gemini 1.0 Ultra/Pro。 ? 目前Opus 和 Sonnet 已可通過 claude網(wǎng)站和 Claude API 使用,而 Ha
    的頭像 發(fā)表于 03-08 12:29 ?344次閱讀

    Claude 3 Haiku模型Amazon Bedrock正式可用

    ,其中Claude 3 Haiku模型已經(jīng)亞馬遜云科技的Amazon Bedrock平臺(tái)上正式上線,為用戶提供更快速、更緊湊的生成式人工智能體驗(yàn)。
    的頭像 發(fā)表于 03-19 11:12 ?671次閱讀

    谷歌Gemini流量已追平ChatGPT的25%,但Claude、Copilot使用率仍偏低

    同時(shí),F(xiàn)riedman指出,目前備受關(guān)注的Claude的用戶規(guī)模較小,而Microsoft的Copilot也沒能贏得市場份額。盡管ChatGPT在網(wǎng)絡(luò)上有很高知名度,但其流量水平與其去年大致相同,并無顯著增長。
    的頭像 發(fā)表于 04-12 15:04 ?766次閱讀

    Anthropic 發(fā)布Claude 3.5 Sonnet模型運(yùn)行速度是Claude 3 Opus的兩倍

    Anthropic 發(fā)布Claude 3.5 Sonnet最新模型 新模型推理、知識和編碼能力評估方面超越以前的版本和競爭對手GPT 4o模型,同時(shí)其運(yùn)行速度是
    的頭像 發(fā)表于 06-21 15:43 ?657次閱讀
    Anthropic 發(fā)布<b class='flag-5'>Claude</b> 3.5 Sonnet模型運(yùn)行速度是<b class='flag-5'>Claude</b> 3 Opus的兩倍