以太坊的交易与交易池
# 概述
本篇文章将在此基础上介绍以下内容:
- 客户端如何构建一笔交易
- 服务端如何处理交易并进行打包
本文以一笔交易的生命周期为主线安排全文,从交易池初始化、交易构造到交易执行,尽可能为读者全景展示以太坊中的交易所涉及的方方面面。

# 交易池初始化
在交易进行之前,节点首先需要完成节点初始化,本节内容主要聚焦于此。
节点需要对以下数据进行初始化:
1 | type TxPoolConfig struct { |
各参数含义如下:
Locals本地账户地址列表。在以太坊执行层节点内,本地交易拥有一系列特权,节点会监控交易来源地址并确定是否将其列为本地交易NoLocals禁止本地交易处理,将所有交易均列为远程交易 (即无特权交易)Journal对交易池内的本地交易进行数据持久化的文件名Rejournal进行数据持久化的时间间隔PriceLimit交易池接受到最小 gas 价格,在 EIP1559 交易中代表最小 Priority Fee 价格PriceBump交易 gas 价格提升的最小百分比AccountSlots单个账户可执行交易的最大容量GlobalSlots所有账户可执行交易的最大容量AccountQueue最大单个账户非可执行交易容量GlobalQueue全局最大非可执行交易容量Lifetime非可执行交易的存活时间
我们在上文中使用了交易容量而非交易数量,两者具有一定的区别,一般来说,一笔交易占用 1 单位交易容量,具体计算公式如下:
1 | func numSlots(tx *types.Transaction) int { |
其中 txSlotSize 为常量,其值为 32768 。 tx.Size() 代表一笔交易经过 RLP 编码后的体积,单位为 bytes 。正常交易都仅占用 1 单位交易容量。
设置上述规则的原因在于避免部分用户构建超大交易占用交易池资源,正常来说一笔交易仅占用
2000 bytes左右。
上述各值的初始化如下:
1 | var DefaultTxPoolConfig = TxPoolConfig{ |
在交易池中,我们把交易分为远程交易 ( remote transactions ) 和本地交易 ( local transaction )。其中,后者具有以下优先级:
- 写入 Journal 文件中,在节点启动时直接载入交易池
- 不受交易池中的 PriceLimit 等限制
- 在交易排序时优先级最高
- 不会因为交易队列已满等原因被交易队列剔除
我们使用 RPC API 向节点发送的交易也属于 local transactions (前提为节点将 NoLocals 设置为 False )。
此处的
PriceLimit参数对应EIP1559交易中的 Max Fee 参数,这意味着只要Max Fee大于PriceLimit即可进入交易池
在此处也出现了两种交易类型,如下:
- 可执行交易 (executable transaction),此交易位于
pending队列中,极有可能被节点封装进入下一个区块 - 不可执行交易 (non-executable transaction),此交易位于
queued队列中,不太可能被节点封装进入下一个区块
封装 (
seal) 是目前以太坊对于区块打包的描述
我们通过 NewTxPool 函数使用上述初始化配置实现交易池的初始化。
初始化完成后,我们通过 SubscribeNewTxsEvent 函数订阅在以太坊网络中广播的新的交易项目。
# 交易构造
本节内容主要介绍客户端如何构造一笔以太坊交易。鉴于本文的很多读者并没有独立运行的以太坊节点,我们在此处主要介绍通过以太坊的 API 构建交易。
在一笔交易的最初阶段,用户需要完成交易的初始化,设置一笔交易的各个参数。在此处,我们以以太坊标准 APIeth_sendTransaction 为例向大家介绍一笔交易的具体构成,具体构成如下:
type交易类型,如果使用 EIP1559 类型交易,则设置为0x02nonce用户的nonce,此数值会在用户完成每一笔交易后增加1to交易目标地址from交易来源地址gas即gas limit,具体参考 Gas Limit 的获取value交易转账的ETH数量 (单位为wei)input交易包含的合约运行数据,如果交互对象不是合约,可置为0xgasPrice如果使用EIP1559,此项可置为空maxPriorityFeePerGas设置的 Max Priority FeemaxFeePerGas设置 Max FeeaccessList由EIP2930进行了一些规定,由于目前使用较少,我们不进行介绍chainID链 ID,可通过 ChainList 获得相关数据
接下来,我们尝试使用 MetaMask 提供的 API 构建一笔交易。
首先,我们需要任一已被 MetaMask 授权的网站进行测试。在此处我们以 MetaMask 的演示网站 MetaMask Test Dapp 为例。点击 CONNECT 进行账户授权,授权完成后,可以点击 ETH_ACCOUNTS 与自己的地址进行对比。完成上述准备后,点击 F12 进入开发者模式后选择 Console 进入 Javascript 终端。
输入以下内容初始化交易参数:
1 | const transactionParameters = { |
我们在此处省略了很多字段,这些字段会被 MetaMask 自动补齐。
输入内容并运行:
1 | const txHash = await ethereum.request({ |
如果一切顺利,读者可以看到如下内容:

如果读者需要设置
gas、value等参数,需要注意这些参数均使用wei作为单位,同时使用 16 进制进行编码。1 wei 为0.000000000000000001 eth。
更加详细的对于此 API 的说明,可以自行参考文档或者前往 MetaMask JSON-RPC API Reference
值得注意的是,大部分 RPC 服务商均不支持此 API。读者可以发现上述交易中不包含签名,但由于 RPC 服务商不托管用户私钥,不能对交易进行签名,所以不能进行交易提交。 MetaMask 钱包中包含用户私钥所以可以调用此函数。
RPC 服务商一般允许使用
eth_sendRawTransaction接口,此接口需要提交已经完成签名的并使用 RLP 编码的交易。本质上,MetaMask也调用了此接口。
如果希望通过命令行提交交易,可以使用 Foundry 提供的 cast 命令,具体可以参考 cast send 命令,支持上述所有参数。一个最简单的案例如下:
1 | cast send 0x11475691C2CAA465E19F99c445abB31A4a64955C --value 0.001ether --gas-limit 21000 --gas-price 5gwei --priority-gas-price 1.5gwei --private-key $pk --rpc-url https://goerli.infura.io/v3/9aa3d95b3bc440fa88ea12eaa4456161 |
其中 $pk 需要替换为用户自己的私钥。 --gas-price 的含义为 Max Fee , --priority-gas-price 含义为 Max priority fee ,详细介绍请参考上文给出的文档。
由于后文会使用到以太坊内的交易类型,在此处,我们一并给出交易在 go-ethereum 中的接口,如下:
1 | type TxData interface { |
各个参数的含义如下:
txType返回交易的类型,对应type参数gasTipCap对应交易设置中的maxPriorityFeePerGas,即Max Priority FeegasFeeCap对应交易设置中的maxFeePerGas,即Max Fee
其他参数较为简单,读者可以直接通过名称推断其含义,故不再进行介绍。
# 交易池添加交易
当交易完成设置并通过 API 发送后,节点中的交易池会接受到此交易,并将其纳入自己的交易队列中。在详细分析交易进入队列之前,我们首先讨论一下以太坊中交易队列的类型。
在以太坊中,我们可以将交易队列使用以下 Venn 图表示:

所有交易可以根据来源首先被划分为两类:
- 本地交易
local transaction - 远程交易
remote transaction
正如前文所言,前者在优先级上高于后者所有交易,所以在以太坊交易池中属于最高等级,需要独立对待。
而远程交易 remote transaction 则被细分为了以下两个队列:
pending队列 - 此队列数据基本可以保证会被纳入下一个区块,而在交易广播时也只广播此队列内的交易queued队列 (亦称queue队列) - 此队列内的数据只能在交易池刷新队列时可能被纳入pending队列,我们会在后文进行介绍具体的更新规则
但在
go-ethereum中,将local transaction保存在了pending队列中,但另一方面保证了local transaction不会被pending队列剔除
在 go-ethereum 中,上述队列定义如下:
1 | pending map[common.Address]*txList // All currently processable transactions |
在正常情况下,当一个新的交易进入节点交易池后,此交易有以下去向:
- 大部分情况下直接进入
queue队列等待刷新 - 少部分用于增加
gas费用的交易替换pending中的原有交易被纳入pending队列 - 因不满足交易条件而被删除
我们首先分析用于在交易池中加入单个交易的 add 函数,其代码非常长,我们将逐块分析:
1 | func (pool *TxPool) add(tx *types.Transaction, local bool) (replaced bool, err error) |
函数定义说明,此函数接受交易和标识交易是否为本地交易的 local 标识符作为输入,返回代表此交易是否替换了其他交易的 replaced 标识和错误 err
整个流程可以使用以下流程图说明:
1 | hash := tx.Hash() |
首先获得交易的哈希值,如果交易与交易池内的任何交易的哈希值相同,我们则丢弃此交易,并抛出异常
1 | isLocal := local || pool.locals.containsTx(tx) |
此代码判断交易是否为 local transaction 。如果满足 local 标识符为 True 或交易发送者位于 Locals 地址列表内条件,则认定此交易为 local transaction
1 | if err := pool.validateTx(tx, isLocal); err != nil { |
使用 validateTx 函数验证交易是否符合交易池的要求,限于篇幅,我们在此处直接给出 validateTx 函数验证的内容,具体代码实现请自行查找。具体验证内容如下:
- 交易进行
RLP编码后体积不大于131072 bytes - 交易的
Gas Limit不大于 3000 万 (即当前区块的GasLimit) - 交易的
Max Fee和Max Priority Fee不大于2 ^ 256 - 交易的
Max Priority Fee小于Max Fee - 交易签名正确
- 交易的
Max Priority Fee大于交易池设置的PriceLimit - 交易的
nonce大于交易者当前的nonce - 交易者账户余额可以支付交易的
Gas费用 - 满足
AccessList的一些gas要求
如果用户提交给节点的交易无法满足上述条件,则直接被丢弃。
当交易经过校验后,交易或被纳入 queued 或 pending 队列中,这一部分逻辑较为复杂。
首先,我们分析交易池容量已满的情况,我们使用以下的代码判定此情况:
1 | uint64(pool.all.Slots()+numSlots(tx)) > pool.config.GlobalSlots+pool.config.GlobalQueue |
其中 pool.all.Slots() 会返回目前交易池内所有交易所占用的交易容量, numSlots(tx) 计算准备进入交易池的交易的所占用的交易容量,如果两者之和大于 GlobalSlots (所有账户可执行交易的最大容量) 和 GlobalQueue (全局最大非可执行交易容量),我们可以判断交易池已满。
1 | if !isLocal && pool.priced.Underpriced(tx) { |
此处涉及到一个名词 Reorg ,此名词表示交易池重排。每当一个新的区块被生成,交易池会根据区块中的交易信息对交易池内的交易进行重组,包括在交易池内删除已被打包的交易 (这部分交易往往位于 pending 队列中)、升级符合条件的 queued 队列中的交易、在已满的队列中删除交易以及广播交易。该部分核心实现为 runReorg 函数,此函数会在后文多次出现。我们一般使用 channel 这种特殊的 go 数据类型与作为单独线程的 runReorg 函数进行通信。
在此代码中 changesSinceReorg 代表现在需要重组的交易数量,如果此交易数量大于 GlobalQueue (所有账户可执行交易的最大容量) 的 1 / 4 ,我们则认为交易池非常拥挤,直接丢弃新的交易。
在交易池启动后,runReorg 函数会自动清除已满队列中的交易,开发者认为通过 add 函数删除太多交易并不合适,具体可参考 #23095
1 | drop, success := pool.priced.Discard(pool.all.Slots()-int(pool.config.GlobalSlots+pool.config.GlobalQueue)+numSlots(tx), isLocal) |
当我们认为交易可以被删除,我们则进行真正的交易删除步骤。首先通过 pool.priced.Discard 函数移除占用 pool.all.Slots()-int(pool.config.GlobalSlots+pool.config.GlobalQueue)+numSlots(tx) 单位的交易容量的交易。此函数不会真正删除交易,而是会返回待删除交易的列表,待删除交易的筛选规则为交易由高到低进行排序,优先删除价格最低的交易 (本地交易不会被删除)。
如果无法获得待删除列表,且交易不是本地交易,则返回错误。如果获得待删除交易列表,我们会更新 changesSinceReorg 变量。然后使用 pool.removeTx 真正执行删除步骤。
当我们完成交易池容量方面的处理后,我们接下来处理一部分特殊的交易,即用于替换交易池 pending 队列的交易。这种替换交易往往用于增加已经在队列中的交易的 gas ,保证交易可以尽快完成。
我们可以通过以下代码判断此交易是否为替换交易:
1 | from, _ := types.Sender(pool.signer, tx) // already validated |
首先使用 types.Sender(pool.signer, tx) 获得交易的具体签名人,然后前往 pool.pending 队列中查询此用户名下的所有交易,并使用 Overlaps 函数判断交易是否存在重复。
pool.pending是一个映射pending map[common.Address]*txList,我们可以通过用户地址在其内部快速检索相关交易
当我们发现交易池内已包含此笔交易后,我们会尝试将交易加入交易池,代码如下:
1 | inserted, old := list.Add(tx, pool.config.PriceBump) |
此处使用到了 Add 函数,此函数接受交易 tx 后会在交易队列中查询与 tx 的 nonce 相同的交易。获得交易列表内的旧交易后,函数会校验 gasTipCap 和 gasFeeCap 相较于旧交易的增加幅度是否符合要求,如果满足上述条件,则直接在交易列表内替换旧的交易。同时返回需要替换的旧交易,以满足后续处理流程。当然,如果此处发现 Add 函数返回替换失败的标识,我们直接放弃替换。
关于 Add 函数,其具体代码如下:
1 | func (l *txList) Add(tx *types.Transaction, priceBump uint64) (bool, *types.Transaction) { |
可能也发现上述流程仅对交易列表进行了替换,而不是对 pool 交易池的其他参数进行同步更新,所以我们使用以下代码更新交易池内的其他参数:
1 | if old != nil { |
首先在用于维护交易池内所有交易的 pool.all 队列中删除此交易,同时在更新交易价格构成的 pool.priced 队列。使用 pool.journalTx 方法尝试将此替换交易纳入用于交易数据存储 Journal 内。
此处使用了尝试是因为在
journalTx函数中会对交易的from进行审查,如果交易不来自local地址,则不会进行存储。
1 | case tx := <-pool.queueTxEventCh: |
此处没有设置
scheduleReorgLoop中的一个重要参数launchNextRun,此参数用于判断runReorg,即重排过程是否立即执行,若不设置,则意味着重排过程不会立即进行。
而 queueTxEvents 定义如下:
1 | queuedEvents = make(map[common.Address]*txSortedMap) |
其中 txSortedMap 是一个 nonce 到交易 transaction 的堆 ( heap )。最终, queuedEvents 映射会被用于交易广播,以下给出的代码摘自 runReorg 函数的最后,其中 events 即此处的 queuedEvents 。
1 | if len(events) > 0 { |
完成上述步骤后,我们会更新账户最新的活动时间,完成整个替换交易流程。代码如下:
1 | pool.beats[from] = time.Now() |
如果一笔交易既不是对现有交易的替换,我们会使用使用以下代码直接将其推入 queue 队列中,代码如下:
1 | replaced, err = pool.enqueueTx(hash, tx, isLocal, true) |
此处的 enqueueTx 会将交易推送进入 queue 队列,限于篇幅,我们在此处以注释的形式解释此函数的源代码:
1 | func (pool *TxPool) enqueueTx(hash common.Hash, tx *types.Transaction, local bool, addAll bool) (bool, error) { |
完成上述重要任务后,最后我们处理本地交易的问题,代码如下:
1 | if local && !pool.locals.contains(from) { |
如果发现交易被标记为 local ,但账户没有被标记为 local ,则直接将交易发生账户列入 locals 名单内并对此地址下的所有交易进行提权至本地交易 ( local transaction ),最终使用 journalTx 存储本地交易。
当然,正常情况下我们更有可能一次性增加大量交易,所以在源代码中,我们可以看到大量函数都使用了 addTxs 函数,而此函数中的一个核心部分是 addTxsLocked 函数,我们首先介绍此函数。
代码如下:
1 | func (pool *TxPool) addTxsLocked(txs []*types.Transaction, local bool) ([]error, *accountSet) { |
此处使用到了 pool.add 函数用于向交易池内增加交易,但为了方便使用 runReorg 函数进行交易重排,在此处定义了一个较为特殊的 dirty 变量,此变量为一个交易发送者地址列表,我们使用了 dirty.addTx(tx) 向此地址列表内增加新的交易发送者信息。
此函数名内包含
Locked字样,这意味着此函数必须在交易池拿到线程锁时才能使用
我们也对此函数进行分析
1 | func (pool *TxPool) addTxs(txs []*types.Transaction, local, sync bool) []error |
在此函数中,各参数含义如下:
txs代表需要加入交易池的交易集合local用于标识此交易集合内的交易是否为本地交易sync用于标识此交易集合内的交易是否立即用于提权,用于测试
此函数的流程图如下:
addTxs 函数首先对交易进行了一个简单的验证,具体代码如下:
1 | var ( |
在完成基本的交易校验后,使用 pool.addTxsLocked 函数将交易加入交易池内,代码如下:
1 | pool.mu.Lock() |
此处使用了 pool.mu.Lock() 及 pool.mu.Unlock() 实现交易池线程锁定和解锁。
1 | var nilSlot = 0 |
一个简单的 for 循环实现 newErrs 中的错误到 err 的转移。
1 | done := pool.requestPromoteExecutables(dirtyAddrs) |
此函数实际上实现了将交易通过 channel 推送给 runReorg 的作用。其中 requestPromoteExecutables 的定义如下:
1 | func (pool *TxPool) requestPromoteExecutables(set *accountSet) chan struct{} { |
# 交易重排
runReorg 函数是由 scheduleReorgLoop 函数启动,而 scheduleReorgLoop 函数在交易池初始化时就被调用,具体可以参考 NewTxPool 函数中的下述代码:
1 | go pool.scheduleReorgLoop() |
而在 scheduleReorgLoop 函数内,我们可以看到大量的 channel 的使用。
我们首先给出一系列的 channel 定义:
1 | reqResetCh chan *txpoolResetRequest |
其传输的信息主要为:
reqResetCh传输用于区块更新的相关信息reqPromoteCh传输用于更新的指定地址集合queueTxEventCh传输用于加入queued队列交易的信息reorgDoneCh传输由空结构体构成的channelreorgShutdownCh传输reorg停止信号
一个简单的示例图,如下:
在这些 channel 中,较难理解的是 reorgDoneCh 和 reorgShutdownCh ,这两个变量的设计是为了保证并发的正确性。我们首先介绍 reorgDoneCh 变量,此变量非常奇怪属于 chan chan struct{} 类型。
对于任何一个 channel,分析其作用的最好方法就是分析其数据发送者和数据接收者。 reorgDoneCh 的数据发送者代码如下:
1 | case req := <-pool.reqResetCh: |
上述代码均来自 scheduleReorgLoop 函数内,我们可以看到都是在进行一系列数据处理后在进行推送 nextDone 。其中 nextDone 的定义为 make(chan struct{}) ,是符合 channel 的类型要求的。
上文给出的
case代码块内,我们可以看到launchNextRun被设置为true,这意味着重排会立即进行。当然,此时进行的重排也会对上文介绍的queuedEvents中的内容一并进行重排。
我们进一步分析数据接收者,代码如下:
1 | func (pool *TxPool) requestReset(oldHead *types.Header, newHead *types.Header) chan struct{} { |
这些接收函数均直接选择 将pool.reorgDoneCh 内的空 channel 作为 return 返回,如果读者进一步研究这两个函数的应用会发现函数的 return 值并没有被具体的运行逻辑使用。
造成这种情况的原因是 reorgDoneCh 的目的仅是保证 reqResetCh 和 reqPromoteCh 函数发送给 reqResetCh 和 reqPromoteCh 的数据会被 scheduleReorgLoop 正确处理后关闭。更加详细的解释是当我们通过 return <-pool.reorgDoneCh 获得一个 channel (即 nextDone ) 时,由于 channel 自身具有阻塞性,主函数只有在 scheduleReorgLoop 进行完数据处理 (即上文给出的 case 块) 运行后退出。这一行为有效保障函数运行的同步。这种运行逻辑与 async/await 类似,在 golang 中,类似 reorgDoneCh 的 chan chan struct{} 是一种重要的无锁队列结构,
假如我们不进行
reorgDoneCh队列操作,那么使用requestPromoteExecutables的addTxs函数就可以无视scheduleReorgLoop的数据处理流程而自行工作,这可能导致数据在scheduleReorgLoop进行数据处理操作时被推入函数,造成并发冲突。
reorgDoneCh代表的chan chan struct{}是 无锁 Channel 的重要实现方式,其他实现方式可以参考 Go channels on steroids。如果读者想进一步深入学习,建议阅读 Go 语言设计与实现。
# 区块打包
在完成交易进入交易池、交易提升至 pending 队列后,我们需要处理区块打包问题,考虑到文章的专题性,本节不会讨论以下问题:
- 区块的具体结构和生成方法
PoS共识算法
本节仅关注交易池与区块打包的对接部分。此部分主要位于 miner/worker.go 文件内,我们所需要介绍内容的核心函数为 fillTransactions ,代码如下:
1 | func (w *worker) fillTransactions(interrupt *int32, env *environment) error { |
这一部分代码中使用了 types.NewTransactionsByPriceAndNonce 函数。调用此函数会构造以下类型:
1 | type TransactionsByPriceAndNonce struct { |
其中, heads 属于 TxByPriceAndTime 类型构成堆 ( heap ),其具体定义为 []*TxWithMinerFee ,进一步 TxWithMinerFee 的定义如下:
此处出现了一个变量 minerFee ,此变量与 gas 费用有关,其具体的计算公式如下:
1 | min(GasTipCap, gasFeeCap-baseFee) |
在后文中,我们经常使用 func (*TransactionsByPriceAndNonce).Pop() 函数,此函数会返回交易队列中 minerFee 最大的交易,如果 minerFee 相同则返回发现时间较早的交易。
在完成 NewTransactionsByPriceAndNonce 函数后,我们将使用 commitTransactions 函数,此函数在本节中属于核心地位,我们将着重介绍。
此函数的定义如下:
1 | func (w *worker) commitTransactions(env *environment, txs *types.TransactionsByPriceAndNonce, interrupt *int32) error |
在此处,我们忽略用于用于传输中断信息的 interrupt 变量,而另一个变量 env 则存储有封装区块所需要的一系列其他参数,在此次我们仍将省略不谈。
接下来,我们分析其代码构成:
第一步,初始化 gas pool ,并限定区块可用 gas ,代码如下:
1 | gasLimit := env.header.GasLimit |
其中,函数 AddGas 的功能是提供 gas 限额。关于区块的 GasLimit 的讨论,可以参考以太坊 Gas 燃料和交易手续费计算中的内容。
接下来,我们会进入到一个 for 循环,此循环没有限定条件,仅能依靠循环体内的 break 跳出。
在此循环内首先检查了 interrupt 变量,我们跳过此部分。然后,检查了 gasPool 的余额,代码如下:
1 | if env.gasPool.Gas() < params.TxGas { |
如果检测到 gasPool 内的 gas 剩余小于 21000 ,我们认为已达到区块的 gasLimit ,跳出循环。
检测完 gas 限制后,我们进一步检测交易队列的情况,若此笔交易位于队列最后,则退出循环。代码如下:
1 | tx := txs.Peek() |
其中,tx.Peek () 会返回 TransactionsByPriceAndNonce 堆中的下一个元素,但与 pop 不同的是此操作不会影响堆的结构。
在完成上述步骤后,我们对一项非常重要的参数进行校验,即判断交易的签名是否符合 EIP155 的规定。
如果交易不符合 EIP155 的规定,交易会不配剔除打包序列。
完成基本的校验后,我们准备执行交易,执行交易的代码如下:
1 | env.state.Prepare(tx.Hash(), env.tcount) |
在此段代码内,我们首先初始化 state ,即用来记录状态变化的数据库。在第二行里,我们通过 commitTransaction 正式提交交易。运行交易步骤包含大量的函数调用,限于篇幅,我们无法完整介绍。在此处,我们仅给出一系列函数调用中最核心的代码,如下:
1 | if contractCreation { |
如果交易涉及合约创建,则调用 st.evm.Create ,否则则调用 st.evm.Call 函数,所以即使交易仅是一笔转账交易,以太坊节点依旧会调用 EVM ,这与一般的认识是不相符的。
完成交易提交后,我们通过 switch 语句处理交易运行失败的各种情况,读者可以阅读相关代码。如果一切正常,我们运行以下代码块:
1 | case errors.Is(err, nil): |
此代码会将日志推送到 coalescedLogs 日志中,然后运行 tx.Shift() 执行下一个交易。
在完成交易的执行后,我们使用以下代码将运行日志作为订阅源供用户使用:
1 | if !w.isRunning() && len(coalescedLogs) > 0 { |
我们首先对 coalescedLogs 进行复制,然后直接使用 Send 发送订阅源。此订阅源并不是在广播交易,而只是供终端用户使用。
在进行使用前,请确保拥有一个 ws 以太坊节点,在此处,我们使用了 infura 提供的服务。除此之外,读者应安装 ws 的客户端,在此处,我使用了 utws 作为客户端。输入以下命令:
1 | uwsc wss://mainnet.infura.io/ws/v3/YOUR_API_KEY |
回车后,在 > 后键入以下内容:
1 | {"jsonrpc":"2.0", "id": 1, "method": "eth_subscribe", "params": ["newPendingTransactions"]} |
输入如下图:

输出如下图:

在输出中, result 代表交易的哈希值,读者可 https://etherscan.io/tx/{result} 形式的网址访问到交易详情。
最后,我们介绍用于区块密封的函数,代码如下:
1 | func (w *worker) generateWork(params *generateParams) (*types.Block, error) { |
目前以太坊已经完成了合并,所以此处最终的出块是由 engine 完成,即共识引擎。
简单给出一个当前以太坊的节点架构图:

简单来说,当共识客户端 ( Consensus Client ) 被选为区块提案者 ( proposer ) 后,会在执行客户端 ( Exection Client ) 的交易池内筛选交易,并由执行客户端运行交易。最终,共识客户端将打包后的交易进行广播,由其他节点进行投票,最终确定一个区块。
在此处,我们基本完成了一笔交易在以太坊执行层内的完整流程,接下来,我们介绍当区块到达交易池后,交易池重构的相关内容。
# 交易池重构
我们在上文仅考虑了节点直接生产区块的区块,但在实际情况中,节点更有可能无法生产区块,而仅仅作为区块的接受方,接受其他节点生产的区块。我们势必限需要讨论节点在接受到其他节点发送的区块时如何进行交易池重构的问题 。
在交易池主循环内,我们可以找到如下代码:
1 | case ev := <-pool.chainHeadCh: |
当交易池在 chainHeadCh 内获得新的区块头后,交易池会启动 requestReset 函数,此函数我们在上文已有所介绍, requestReset 函数会将请求发送到 reqResetCh 的通道内,最终由 scheduleReorgLoop 函数接受,代码如下:
1 | case req := <-pool.reqResetCh: |
实际最终还是由 runReorg 运行,我们在此处仅接受上文未介绍的 Reset 部分,第一部分的代码如下:
1 | if reset != nil { |
我们首先介绍除了 reset 外的其他部分,在完成 reset 函数后,我们首先删除 events (内部含有准备加入 quenue 队列的交易) 内所有小于当前状态数据内的 nonce 的交易。小于当前状态数据库内的 nonce 意味着此交易已被打包,不需要进行进一步处理。
然后,我们将当前交易池内 quenue 队列中的所有交易列入 promoteAddrs 中,这意味着在之后的代码运行中,这些交易均会被升级为 pending 队列内的交易。
最后,我们介绍较为复杂的 reset 函数,此函数负责向交易池内提交差异交易,而不负责删除交易,删除交易的代码我们会在第二部分进行介绍。
我们首先介绍第一个 if 语句内的交易:
1 | if oldHead != nil && oldHead.Hash() != newHead.ParentHash { |
我们在源代码中给出了部分注释,但对于一些特殊情况,我们在此进行解释。
rem == nil 情况,此情况较为特殊,我们无法在数据库内检索到旧的区块,此种情况可细分:
newNum >= oldNum新区块编号大于或等于旧区块,此种情况下意味着我们之前使用的链并不位于主链上,而是位于分支链上。此种情况下,我们不需要对交易池进行特别处理,等待再获得一个区块重置变量即可。- 其他情况,这些情况都较为玄学,可能是函数运行出现问题,也可以通过等待区块重置变量解决问题
除了上面这种情况,我们还会遇到以下情况:
-
旧区块大于新区块 这意味着节点获得了一个可能来自分支链的块广播,我们将旧区块的交易列入
discarded序列内。正如上文所述,此函数其实不会丢弃交易,discarded仅作为交易序列名存在。我们认为旧区块内的交易都应该删除,无论旧区块是否位于主分支等情况 -
新区块大于旧区块 正常情况,将新区块内的交易列入
included列表内
在当前以太坊
PoS情况下,很难出现分支链等情况
当然,只要新区块与旧区块的哈希值不同,我们就需要处理其内部的交易,即 rem.Hash() != add.Hash() 情况,在这种情况下,我们将旧区块内的交易列入 discarded ,并将新区块内的交易列入 included 。我们也做了两个校验,代码如下:
1 | rem = pool.chain.GetBlock(rem.ParentHash(), rem.NumberU64()-1); rem == nil |
上述代码用于判断旧区块是否存在上一个区块,如果没有,则说明此区块不可信,应该直接抛弃。
还有一种极其特殊的情况,代码如下:
1 | if newHead == nil { |
正如注释,此情况仅用于测试。
在完成上述步骤后,我们通过 reinject = types.TxDifference(discarded, included) 获得两个区块交易集合之间的差集。这也是我们需要补充到交易池内的交易,并同时根据新的区块更新部分设置,代码如下:
1 | statedb, err := pool.chain.StateAt(newHead.Root) |
上述内容基本就是根据新区块对各个变量进行重新设置,较为简单,不再赘述。
接下来,我们分析 runReorg 的第二部分,此部分会删除部分交易。代码如下:
1 | if reset != nil { |
我们首先分析 demoteUnexecutables 函数,代码如下:
1 | func (pool *TxPool) demoteUnexecutables() { |
我们通过注释分析了以上代码,此代码的一大特点是在新区块到来时会对 pending 队列中不符合新区块要求的交易进行降级处理。
在完成交易降级流程后,我们使用以下代码进行 nonce 的重置:
1 | nonces := make(map[common.Address]uint64, len(pool.pending)) |
我们通过 list.LastElement() 获得最新的交易,然后将交易的 nonce + 1 作为我们目前跟踪的 nonce 。
# 总结
本文主要介绍了一个交易从构建到打包进入区块的完整过程,基本分析了以太坊交易池的实现和构成,也设计了部分交易打包和执行的内容。主要内容列表如下:
- 以太坊交易池的基本参数和初始化
- 交易参数的含义与使用
MetaMask API构建交易 - 交易池内交易队列
- 交易池增加交易使用的函数
- 交易池内的
scheduleReorgLoop调度函数及相关channel runReorg函数实现交易提权的过程- 交易打包和执行的基本情况
runReorg在新区块到达情况下重置交易池状态的情况
考虑到读者可以希望自己阅读源代码,此处给出关于交易的核心函数流程图,为了简单,此流程图省略了部分数据结构,如下: