自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

只需百行代碼,讓H100提速30%,斯坦福開(kāi)源全新AI加速框架

人工智能 新聞
文章用大量篇幅討論了如何讓 GPU 更快的運(yùn)行,并發(fā)布了一個(gè)庫(kù) ThunderKittens,用戶可以很容易地在 CUDA 上編寫快速的深度學(xué)習(xí)內(nèi)核。

AI 的快速發(fā)展,伴隨而來(lái)的是大計(jì)算量。這就自然而然的引出了一個(gè)問(wèn)題:如何減少 AI 對(duì)計(jì)算的需求,并提高現(xiàn)有 AI 計(jì)算效率。

為了回答這一問(wèn)題,來(lái)自斯坦福的研究者在博客《GPUs Go Brrr》中給出了答案。

圖片圖片

博客地址:https://hazyresearch.stanford.edu/blog/2024-05-12-tk

文章主要專注于兩個(gè)問(wèn)題:一是硬件真正需要什么?二是如何滿足硬件需求?

文章用大量篇幅討論了如何讓 GPU 更快的運(yùn)行,并發(fā)布了一個(gè)庫(kù) ThunderKittens,用戶可以很容易地在 CUDA 上編寫快速的深度學(xué)習(xí)內(nèi)核。其具有以下特點(diǎn):

簡(jiǎn)單,ThunderKittens 寫起來(lái)非常簡(jiǎn)單??蓴U(kuò)展性,如果用戶需要 ThunderKittens 無(wú)法提供的功能,可以進(jìn)行功能擴(kuò)展。 速度快。

圖片圖片

GitHub 鏈接:https://github.com/HazyResearch/ThunderKittens

ThunderKittens 使得一些棘手的事情變得非常簡(jiǎn)單,從而在現(xiàn)代硬件上實(shí)現(xiàn)了非常高的利用率。項(xiàng)目中,作者用 ThunderKittens 編寫了一個(gè) RTX 4090 簡(jiǎn)單的 FlashAttention-2 內(nèi)核,代碼總共有 58 行代碼(不包括空格),結(jié)果顯示,ThunderKittens 在 RTX 4090 上實(shí)現(xiàn)了大約 122 TFLOP(理論最大值的 74%)。此外,內(nèi)核程序只有 100 行的情況下,ThunderKittens 在 H100 上的性能比 FlashAttention-2 高出約 30%。

英偉達(dá) H100 有些小怪癖

該研究重點(diǎn)關(guān)注 NVIDIA H100,不過(guò)所介紹的內(nèi)容也適用于其他 GPU。

圖片圖片

H100 SXM GPU 包含:

80 GB HBM3,帶寬為 3 TB/s(實(shí)際上帶寬會(huì)少一些);50 MB 二級(jí)緩存,帶寬 12 TB/s,在 GPU 上分成兩個(gè) 25MB 的部分,通過(guò) crossbar 連接;132 個(gè)流多處理器 (SM,streaming multiprocessors)。

除了上述這些,H100 SXM GPU 還有很多可關(guān)注的東西,例如內(nèi)存控制器、指令緩存等。

研究者表示保持張量核心的運(yùn)行流暢并不容易。他們發(fā)現(xiàn)了一些 AI 硬件上的怪癖,這些怪癖中的很多內(nèi)容也適用于非 H100 GPU,但 H100 尤其棘手。(相比之下,RTX 4090 則非常容易使用),這些怪癖包括:

WGMMA 指令是必需的,但使用起來(lái)也非常令人惱火;共享內(nèi)存實(shí)際上并沒(méi)有那么快,并且需要非常小心;地址生成成本很高;占用率仍然有幫助,寄存器通常是關(guān)鍵資源。

圖片圖片

文章進(jìn)一步描述了 GPU 這些怪癖的具體內(nèi)容。

WGMMA 指令令人惱火

H100 有一組新指令,稱為「warp group matrix multiply accumulate,WGMMA」(PTX 中的 wgmma.mma_async,或 SASS 中的 HGMMA/IGMMA/QGMMA/BGMMA)。以前的 GPU 上可用的張量核心指令是 wmma.mma.sync 和 mma.sync 。通過(guò)這些指令,SM 單個(gè)象限上的 32 個(gè)線程將同步地將其數(shù)據(jù)塊饋送到張量核心并等待結(jié)果。

不同的是,wgmma.mma_async 指令并非如此,128 個(gè)連續(xù)線程(分布在 SM 的所有象限中)協(xié)作同步,并直接從共享內(nèi)存(也可以選擇寄存器)異步啟動(dòng)矩陣乘法。

在基準(zhǔn)測(cè)試中,研究團(tuán)隊(duì)發(fā)現(xiàn)這些指令對(duì)于提取 H100 的完整計(jì)算是必要的。如果沒(méi)有它們,GPU 的峰值利用率似乎只能達(dá)到峰值利用率的 63% 左右。

圖片圖片

共享內(nèi)存

共享內(nèi)存的單次訪問(wèn)延遲約為 30 個(gè)周期,這聽(tīng)起來(lái)似乎不算多,但在這段時(shí)間內(nèi),SM 的張量核心幾乎可以完成兩個(gè)完整的 32x32 矩陣乘法運(yùn)算。

共享內(nèi)存處理起來(lái)有些棘手,因?yàn)樗淮鎯?chǔ)(banked)在 32 個(gè)獨(dú)立的內(nèi)存存儲(chǔ)中。如果不小心,這可能會(huì)導(dǎo)致所謂的 bank 沖突,即同一內(nèi)存 bank 被要求同時(shí)提供多個(gè)不同的內(nèi)存片段,導(dǎo)致請(qǐng)求被串行化,這可能會(huì)不成比例地減慢內(nèi)核的速度 - 而 wgmma 和 mma 指令所需的寄存器布局會(huì)受到這些 bank 沖突的影響。解決方法是使用各種交錯(cuò)模式重新排列共享內(nèi)存,以避免這些沖突。

地址生成

H100 其中一個(gè)特點(diǎn)是張量核心和內(nèi)存都足夠快,以至于僅僅生成用于獲取數(shù)據(jù)的內(nèi)存地址就占據(jù)了芯片資源的相當(dāng)一部分。

NVIDIA 似乎已經(jīng)意識(shí)到了這一點(diǎn),因?yàn)樗麄冑x予了 GPU 張量?jī)?nèi)存加速器(或稱之為 TMA)。TMA 允許用戶在全局和共享內(nèi)存中指定多維張量布局,這節(jié)省了所有的地址生成成本,并且還使得構(gòu)建 pipeline 更加容易。

研究團(tuán)隊(duì)還發(fā)現(xiàn) TMA 和 wgmma.mma_async 一樣,在實(shí)現(xiàn) H100 的全部潛力方面是完全不可或缺的。

占用

在某些方面,與前幾代硬件相比,H100 對(duì)占用率的依賴程度較低。NVIDIA 確實(shí)在設(shè)計(jì) GPU 時(shí)考慮了占用率。雖然對(duì)于 H100 來(lái)說(shuō),占用率只能說(shuō)有用,但作用不大。研究者發(fā)現(xiàn)在 A100 和 RTX 4090 上它變得越來(lái)越重要。

ThunderKittens

那么,如何才能更輕松地編寫內(nèi)核,同時(shí)仍兼具硬件的全部功能?

研究團(tuán)隊(duì)設(shè)計(jì)了一個(gè)嵌入 CUDA 中的 DSL,被命名為 ThunderKittens。

圖片圖片

ThunderKittens 旨在盡可能簡(jiǎn)單,并包含四種模板類型:

寄存器 tile—— 寄存器文件中的 2D 張量。寄存器向量 —— 寄存器文件中的 1D 張量。共享 tile—— 共享內(nèi)存中的 2D 張量。共享向量 —— 共享內(nèi)存中的 1D 張量。

tile 通過(guò)高度、寬度和布局進(jìn)行參數(shù)化,寄存器向量由長(zhǎng)度和布局參數(shù)化,共享向量?jī)H由長(zhǎng)度參數(shù)化。這樣通常不會(huì)遭受 bank 沖突的困擾。

研究團(tuán)隊(duì)還提供了一些必要操作:

初始化,如將共享向量清零

一元運(yùn)算,如 exp二元運(yùn)算,如 mul行 / 列操作,如 row_sum

該研究給出了一個(gè)用 ThunderKittens 編寫的,用于 RTX 4090 的簡(jiǎn)單前向 flash attention 內(nèi)核:


#define NUM_WORKERS 16 // This kernel uses 16 workers in parallel per block, to help issue instructions more quickly.
using namespace kittens; // this kernel only handles headdim=64 for simplicity. Also n should be a multiple of 256 here.
__global__ void attend_ker64(int n, const bf16* __restrict__ __q__, const bf16* __restrict__ __k__, const bf16* __restrict__ __v__, bf16* __o__) {

    auto warpid        = kittens::warpid();
    auto block_start   = blockIdx.x*(n*64);
    const bf16 *_q = __q__ + block_start, *_k = __k__ + block_start, *_v = __v__ + block_start;
          bf16 *_o = __o__ + block_start;

    extern __shared__ alignment_dummy __shm[]; // this is the CUDA shared memory
    shared_allocator al((int*)&__shm[0]);
    
    // K and V live in shared memory -- this is about all that will fit.
    st_bf_1x4<ducks::st_layout::swizzle> (&k_smem)[NUM_WORKERS] = al.allocate<st_bf_1x4<ducks::st_layout::swizzle>, NUM_WORKERS>();
    st_bf_1x4<ducks::st_layout::swizzle> (&v_smem)[NUM_WORKERS] = al.allocate<st_bf_1x4<ducks::st_layout::swizzle>, NUM_WORKERS>();

    // Initialize all of the register tiles.
    rt_bf_1x4<> q_reg, k_reg, v_reg; // v_reg need to be swapped into col_l
    rt_fl_1x1<> att_block;
    rt_bf_1x1<> att_block_mma;
    rt_fl_1x4<> o_reg;
    rt_fl_1x1<>::col_vec max_vec_last, max_vec; // these are column vectors for the attention block
    rt_fl_1x1<>::col_vec norm_vec_last, norm_vec; // these are column vectors for the attention block
    
    int qo_blocks = n / (q_reg.rows*NUM_WORKERS), kv_blocks = n / (q_reg.rows*NUM_WORKERS);

    for(auto q_blk = 0; q_blk < qo_blocks; q_blk++) {

        // each warp loads its own Q tile of 16x64, and then multiplies by 1/sqrt(d)
        load(q_reg, _q + (q_blk*NUM_WORKERS + warpid)*q_reg.num_elements, q_reg.cols);
        mul(q_reg, q_reg, __float2bfloat16(0.125f)); // temperature adjustment

        // zero flash attention L, M, and O registers.
        neg_infty(max_vec); // zero registers for the Q chunk
        zero(norm_vec);
        zero(o_reg);

        // iterate over k, v for these q's that have been loaded
        for(auto kv_idx = 0; kv_idx < kv_blocks; kv_idx++) {

            // each warp loads its own chunk of k, v into shared memory
            load(v_smem[warpid], _v + (kv_idx*NUM_WORKERS + warpid)*q_reg.num_elements, q_reg.cols);
            load(k_smem[warpid], _k + (kv_idx*NUM_WORKERS + warpid)*q_reg.num_elements, q_reg.cols);
            __syncthreads(); // we need to make sure all memory is loaded before we can begin the compute phase

            // now each warp goes through all of the subtiles, loads them, and then does the flash attention internal alg.
            for(int subtile = 0; subtile < NUM_WORKERS; subtile++) {

                load(k_reg, k_smem[subtile]); // load k from shared into registers

                zero(att_block); // zero 16x16 attention tile
                mma_ABt(att_block, q_reg, k_reg, att_block); // Q@K.T

                copy(norm_vec_last, norm_vec);
                copy(max_vec_last,  max_vec);

                row_max(max_vec, att_block, max_vec); // accumulate onto the max_vec
                sub_row(att_block, att_block, max_vec); // subtract max from attention -- now all <=0
                exp(att_block, att_block); // exponentiate the block in-place.

                sub(max_vec_last, max_vec_last, max_vec); // subtract new max from old max to find the new normalization.
                exp(max_vec_last, max_vec_last); // exponentiate this vector -- this is what we need to normalize by.
                mul(norm_vec, norm_vec, max_vec_last); // and the norm vec is now normalized.

                row_sum(norm_vec, att_block, norm_vec); // accumulate the new attention block onto the now-rescaled norm_vec
                div_row(att_block, att_block, norm_vec); // now the attention block is correctly normalized

                mul(norm_vec_last, norm_vec_last, max_vec_last); // normalize the previous norm vec according to the new max
                div(norm_vec_last, norm_vec_last, norm_vec); // normalize the previous norm vec according to the new norm

                copy(att_block_mma, att_block); // convert to bf16 for mma_AB

                load(v_reg, v_smem[subtile]); // load v from shared into registers.
                rt_bf_1x4<ducks::rt_layout::col> &v_reg_col = swap_layout_inplace(v_reg); // this is a reference and the call has invalidated v_reg

                mul_row(o_reg, o_reg, norm_vec_last); // normalize o_reg in advance of mma_AB'ing onto it
                mma_AB(o_reg, att_block_mma, v_reg_col, o_reg); // mfma onto o_reg with the local attention@V matmul.
            }
            __syncthreads(); // we need to make sure all warps are done before we can start loading the next kv chunk
        }

        store(_o + (q_blk*NUM_WORKERS + warpid)*q_reg.num_elements, o_reg, q_reg.cols); // write out o. compiler has an issue with register usage if d is made constexpr q_reg.rows :/
    }
}

總共大約有 60 行 CUDA 代碼,硬件利用率為 75%,雖然非常密集,但大部分復(fù)雜性在于算法,而不是混合模式或寄存器布局。

TMA、WGMMA、swizzling 模式和描述符的復(fù)雜度又如何呢?如下是用 ThunderKittens 編寫的, H100 的 FlashAttention-2 前向傳遞:


template<int D>
__global__  __launch_bounds__((NUM_WORKERS)*kittens::WARP_THREADS, 2)
void fwd_attend_ker_dim(int N, const CUtensorMap* tma_q, const CUtensorMap* tma_k, const CUtensorMap* tma_v, CUtensorMap* tma_o) {
    extern __shared__ int __shm[]; // this is the CUDA shared memory
    tma_swizzle_allocator al((int*)&__shm[0]);

    constexpr int tile_width = fwd_attend_ker_tile_dims<D>::tile_width; // constants
    constexpr int qo_height  = fwd_attend_ker_tile_dims<D>::qo_height;
    constexpr int kv_height  = fwd_attend_ker_tile_dims<D>::kv_height;

    st_bf<qo_height, tile_width, layout_q>          (&q_smem)   [NUM_WARPGROUPS] = al.allocate<st_bf<qo_height, tile_width, layout_q>,          NUM_WARPGROUPS>();
    st_bf<kv_height, tile_width, layout_k>          (&k_smem)[2][NUM_WORKERS_KV] = al.allocate<st_bf<kv_height, tile_width, layout_k>, 2,       NUM_WORKERS_KV>();
    st_bf<kv_height, tile_width, layout_v>          (&v_smem)[2][NUM_WORKERS_KV] = al.allocate<st_bf<kv_height, tile_width, layout_v>, 2,       NUM_WORKERS_KV>();

    int tic = 0, toc = 1;
 
    rt_fl<1, kv_height> att_block;
    rt_bf<1, kv_height> att_block_mma;
    rt_fl<1, qo_height> o_prev;
    col_vec<rt_fl<1, kv_height>> max_vec_last, max_vec;
    col_vec<rt_fl<1, kv_height>> norm_vec_last, norm_vec;

    int warpid      = kittens::warpid();
    int warpgroupid = warpid/kittens::WARPGROUP_WARPS;

    int kv_blocks = N / (NUM_WORKERS_KV*k_smem[0][0].rows);

    __shared__ uint64_t qsmem_barrier, kvsmem_barrier;//, vsmem_barrier;

    int q_phasebit = 0;
    int kv_phasebit = 0;

    if (threadIdx.x == 0) {
        tma::init_barrier<st_bf<qo_height, tile_width, layout_q>, NUM_WARPGROUPS>(qsmem_barrier, 1);
        tma::init_barrier<st_bf<kv_height, tile_width, layout_k>, NUM_WORKERS_KV*2>(kvsmem_barrier, 1); 
    }

    if (warpid == 0) {
        for (int wg = 0; wg < NUM_WORKERS/kittens::WARPGROUP_WARPS; wg++) { // load q
            int tile_idx = (blockIdx.y * NUM_WARPGROUPS * gridDim.x) + (blockIdx.x * NUM_WARPGROUPS) + wg;
            tma::load_async((q_smem[wg]), tma_q, qsmem_barrier, tile_idx); 
        }
        for (int w = 0; w < NUM_WORKERS_KV; w++) { // load k, v      
            int tile_idx = (blockIdx.y * NUM_WORKERS_KV * kv_blocks) + (0 * NUM_WORKERS_KV) + w; 
            tma::load_async((k_smem[tic][w]), tma_k, kvsmem_barrier, tile_idx); 
            tma::load_async((v_smem[tic][w]), tma_v, kvsmem_barrier, tile_idx); 
        }
    }

    neg_infty(max_vec); // zero registers for the Q chunk
    zero(norm_vec);
    zero(o_prev);
    __syncthreads();

    tma::arrive_and_wait(qsmem_barrier, q_phasebit);
    q_phasebit ^= 1;

    if constexpr (D == 64) { warpgroup::mul(q_smem[warpgroupid], q_smem[warpgroupid], __float2bfloat16(0.125f)); } 
    else { warpgroup::mul(q_smem[warpgroupid], q_smem[warpgroupid], __float2bfloat16(0.08838834764f)); }

    for (auto kv_idx = 0; kv_idx < kv_blocks; kv_idx++, tic ^= 1, toc ^= 1) {
        tma::arrive_and_wait(kvsmem_barrier, kv_phasebit);
        kv_phasebit ^= 1;

        __syncthreads();
        if (warpid == 0) {
            tma::set_bytes(kvsmem_barrier, 2 * NUM_WORKERS_KV * k_smem[0][0].num_elements * sizeof(bf16));

            if (kv_idx + 1 < kv_blocks) {
                for (int w = 0; w < NUM_WORKERS_KV; w++) {        
                    int tile_idx = (blockIdx.y * NUM_WORKERS_KV * kv_blocks) + ((kv_idx + 1) * NUM_WORKERS_KV) + w; 
                    tma::load_async((k_smem[toc][w]), tma_k, kvsmem_barrier, tile_idx); 
                    tma::load_async((v_smem[toc][w]), tma_v, kvsmem_barrier, tile_idx);
                }
            }
        }

        warpgroup::mma_fence(att_block);
        warpgroup::mm_ABt(att_block, q_smem[warpgroupid], k_smem[tic][0]);
        warpgroup::mma_commit_group();

        copy(norm_vec_last, norm_vec);
        copy(max_vec_last,  max_vec);

        warpgroup::mma_async_wait();

        row_max(max_vec, att_block, max_vec); // accumulate onto the max_vec
        sub_row(att_block, att_block, max_vec);
        exp(att_block, att_block);

        sub(max_vec_last, max_vec_last, max_vec);
        exp(max_vec_last, max_vec_last);
        mul(norm_vec, norm_vec, max_vec_last);

        row_sum(norm_vec, att_block, norm_vec); // accumulate onto the norm_vec
        div_row(att_block, att_block, norm_vec);

        mul(norm_vec_last, norm_vec_last, max_vec_last);
        div(norm_vec_last, norm_vec_last, norm_vec);

        copy(att_block_mma, att_block); // convert to bf16 for mma
        mul_row(o_prev, o_prev, norm_vec_last); // normalize o_prev in advance of mma'ing onto it

        warpgroup::mma_fence(o_prev);
        warpgroup::mma_AB(o_prev, att_block_mma, v_smem[tic][0]);
        warpgroup::mma_commit_group();
    }

    auto (*o_smem) = reinterpret_cast<st_bf<qo_height, tile_width, layout_o>(*)>(q_smem); // reuse q memory
    warpgroup::store(o_smem[warpgroupid], o_prev); 
    __syncthreads();
    
    if (warpid % 4 == 0) { // store o
        int tile_idx = (blockIdx.y * NUM_WARPGROUPS * gridDim.x) + (blockIdx.x * NUM_WARPGROUPS) + warpgroupid;
        tma::store_async(tma_o, (o_smem[warpgroupid]), tile_idx); 
        tma::store_commit_group(); 
    }

    tma::store_async_wait();
}

這個(gè)內(nèi)核只有 100 行代碼,它在 H100 上的性能比 FlashAttention-2 高出約 30%。ThunderKittens 負(fù)責(zé) wrap up 布局和指令,并提供一個(gè)可以在 GPU 上使用的 mini-pytorch。

圖片圖片

H100 SXM 上各種配置的 FlashAttention-2(Pytorch)與 ThunderKittens 的比較。

此外,研究團(tuán)隊(duì)還發(fā)布了基于線性注意力的內(nèi)核和其他架構(gòu)?;诰€性注意力內(nèi)核的運(yùn)行速度為 215 TFLOP(如果考慮算法中固有的重計(jì)算,則運(yùn)行速度超過(guò) 300 TFLOP)。

雖然理論上線性注意力更高效,但從實(shí)踐經(jīng)驗(yàn)來(lái)看,線性注意力在硬件上的效率大大降低。因此,ThunderKittens 有望開(kāi)辟?gòu)V泛的高吞吐量應(yīng)用。

圖片使用 ThunderKittens 可以非常快地實(shí)現(xiàn)線性注意力。

tile 看起來(lái)是個(gè)好點(diǎn)子

在研究團(tuán)隊(duì)看來(lái),ThunderKittens 之所以運(yùn)行良好,是因?yàn)樗粫?huì)試圖做所有事情。CUDA 確實(shí)比 ThunderKittens 更有表現(xiàn)力,而 ThunderKittens 又小又簡(jiǎn)單。

不過(guò),ThunderKittens 具有很好的抽象能力,它具有小的 tile,這與 AI 和硬件的發(fā)展相匹配。ThunderKittens 不支持任何少于 16 的維數(shù)。但在研究團(tuán)隊(duì)看來(lái),這一點(diǎn)并不重要,尤其對(duì)于硬件而言。如果你的矩陣乘法小于 16x16,你確定自己做的還是 AI 嗎?

從哲學(xué)的視角來(lái)看,研究團(tuán)隊(duì)認(rèn)為框架遷移是合理的?!讣拇嫫鳌巩?dāng)然不應(yīng)該像舊 CPU 那樣的 32 位。CUDA 使用的 1024 位寬向量寄存器無(wú)疑朝著正確方向邁出了一步。但對(duì)研究團(tuán)隊(duì)而言,「寄存器」是 16x16 的數(shù)據(jù) tile。他們認(rèn)為 AI 想要這樣,它仍然只是矩陣乘法、規(guī)約和重塑。當(dāng)然硬件也想要這樣,小的矩陣乘法尋求硬件支持,而不僅僅是 systolic mma。

實(shí)際上,從更廣泛的視角來(lái)看,研究團(tuán)隊(duì)認(rèn)為應(yīng)該圍繞硬件的良好映射來(lái)重新調(diào)整 AI 思路。比如,循環(huán)狀態(tài)應(yīng)該有多大?SM 能夠容納多大尺寸?計(jì)算密度是多少?這些都不亞于硬件的要求。

研究團(tuán)隊(duì)表示,這項(xiàng)工作未來(lái)的一個(gè)重要方向是利用他們對(duì)硬件的了解來(lái)幫助設(shè)計(jì)與硬件相匹配的 AI。

最后,AMD 硬件上適配的 ThunderKittens 也將很快推出。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2019-12-16 14:33:01

AI人工智能斯坦福

2023-03-15 10:26:00

模型開(kāi)源

2020-07-20 09:20:48

代碼geventPython

2024-09-11 15:00:00

2017-11-28 14:18:29

2023-08-10 14:01:08

開(kāi)源虛擬

2023-07-07 17:03:23

AI智能

2018-01-23 16:48:47

AI

2019-03-24 12:11:47

AI 數(shù)據(jù)人工智能

2022-10-20 15:38:02

谷歌模型

2023-07-03 13:23:47

OpenChatOpenLLMChatGPT

2025-04-09 11:25:36

2025-04-09 04:22:00

2021-03-10 14:48:27

人工智能

2019-03-27 10:47:05

人工智能法律AI

2022-07-04 09:12:09

AI技術(shù)論文

2021-03-05 10:57:33

AI 數(shù)據(jù)人工智能

2021-04-02 15:02:42

開(kāi)源技術(shù) 工具

2025-03-12 10:38:05

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)