BCH保護小白利益反惹一身騷,這麼做是對是錯?

2021-09-23 18:27:38 字數 1678 閱讀 2250

在剛過去的5月15日bch公升級過程中,bch的大礦工為了保護小白的利益,主動進行了區塊重組。但是最近幾天,有人專門挖出此事來故意進行各種曲解誤導大眾。

【事件回顧】

眾所周知,bch這次公升級主要就是兩個內容: 新增schnorr簽名& 隔離見證恢復。幣圈**的報道主要集中在schnorr簽名這一點上,而「隔離見證恢復」這個報道的比較的少。

在公升級之前,經常有人操作失誤把bch傳送到3開頭的隔離見證(segwit,以下簡稱sw)位址。雖然在加密幣的世界裡面,轉賬行為都是不可逆的。如果你把幣錯發到別人的錢包,只要聯絡對方進行協商,還是一定機率讓對方主動把幣退還給你的。但是bch是不支援sw位址的,任何傳送到sw位址的幣都變成了「無主之幣」,也就沒法讓別人主動退回來。

而這次公升級的「隔離見證恢復」就是讓礦工可以把這些幣物歸原主。但是本質上這些發錯的幣任何礦工都可以進行花費: 如果礦工是善意的,他可以把幣物歸原主;如果礦工是惡意的,他就可以把這些幣轉移到自己的錢包,占為己有。

在bch公升級後,這個隔離見證恢復的功能就生效了,沒想到被一家叫「fake unknown」的礦池捷足先登,該礦池把所有錯發到sw位址的bch全部轉移到了自己的錢包。

在發現這個情況後,bch的大礦工緊急從btc那調撥大量算力過來挖bch,主動發起了兩個區塊的鏈重組,作廢了「fake unknown」礦池的交易,把那些發錯的bch全部物歸原主。

因此這次重組事件是保護持幣人利益的防禦性行為。但是到了某些bch黑的嘴裡,就變成了「bch大礦工主動發起51攻擊」。

【扒一扒fake unknown這個礦池】

bch.btc.com這個區塊瀏覽器在給礦池標記名字的時候,是根據區塊的coinbase資訊來解析的。如果如果礦池沒有在coinbase表明自己的身份,這個瀏覽器就會標註為「unknown」,表示是未知算力。而這家偷幣的礦池,在coinbase裡面竟然直接寫的unknown,因此為了區分開來,區塊瀏覽器主動給這家礦池命名為「fakeunknown」

而這個藏頭露尾的礦池在bch公升級前夕開始切換大量算力過來挖礦,目的就是為了公升級後在第一時間進行「偷幣」。而bch公升級之後不久,這家礦池很快就把算力全部撤走了。

【是否應該保護小白的利益】

bch如果未來想要成為億萬人口日常使用的貨幣,那麼必須為小白著想。因為未來絕大多數使用者都是小白,他們肯定會犯下各種低階錯誤。

【這次防禦性重組沒有違反遊戲規則】

鏈重組本身就是bch共識規則的一部分。大礦工使用優勢算力進行防禦性重組,靠的是自己的實力,而不是某種「特權」。如果你擁有大量算力,你也可以發起重組。

需要明白一點,任何pow幣的運轉本身就是建立在大多數算力都是誠實的這個基礎之上的,bch也不例外。

這次重組,除了那個fake unknown礦池偷幣未遂,其他人沒有遭受任何損失。

【如果不防禦,任由壞人偷幣】

如果bch的大礦工任由惡意算力偷幣,那麼可以預見bch會遭到比現在強的多的**攻擊,因為有很多使用者的幣真的被偷走了。到時候**的標題就會變成「bch極度危險,礦工可以隨意偷走使用者的幣」

所以無論是否進行防禦,都會有人抹黑。兩害相權取其輕,進行防禦重組是唯一正確的選擇。

結束語這次bch公升級風波不斷,先是有人利用乙個舊的bug讓礦工只能打空塊,然後又是有人想偷幣,不知道他們是否是一夥的。不過在bch公升級前夕,有人在bitfinex掛了18萬個bch的空單,我估計這個空單和bch公升級期間的攻擊行為有關。但是bch快速修復bug,並且成功應對偷幣,使得**不跌反漲,最後導致這個超級大空單爆倉,真是太快人心。

315,誰來保護手遊開發者的利益

315 保護下的消費者,可以選擇更好的商品 手遊玩家,可以自由選擇喜歡玩的遊戲 然而手遊開發者的利益卻只能通過做出賺錢的遊戲。而這一點,在 手遊精品化 的大潮下,面臨著激烈的競爭。手遊市場從2015年開始漸漸趨於平穩,精品化 概念已經成為手遊重要的發展方向。國內手遊行業存在著增速放緩 流量獲取成本增...

維護網路安全 保護人民利益

網路安全法 於6月1日起施行,記者日前就法律實施的有關問題採訪了國家網信辦有關負責人。該負責人表示,網路安全法 的公布和施行不僅從法律上保障廣大群眾在網路空間的利益,有效維護國家網路空間主權和安全,還有利於資訊科技應用,有利於發揮網際網路巨大潛力。同時,針對外國協會和機構的一些擔心,該負責人明確表示...

小白爬蟲學習 Xpath定位資訊 舉一反三

斷斷續續學了好多次爬蟲,始終沒抓到重點,最近兩天終於摸到點門路,發現定位資訊是最重要的,定位好了,再借助解析庫就可以提取想要的資訊了。url 你爬取資訊的 headers 請求頭 import requests r0 requests.get url,headers headers s code r...