德國列車誤點了,大資料分析來救援

2021-09-23 11:45:15 字數 1656 閱讀 5288

德國人過去引以為傲的精準,反映在列車極為準時上,可惜這個傳統逐漸失守,但德國人決定找回過去的榮耀,過去 2 年來,西門子(siemens)的工程師努力應用大資料資料分析協助預防性維修,來讓列車恢復準點。

根據歐盟報告,德國的列車準點率逐漸「掉漆」,2014 年只有 78.3% 德國長途列車準點,準點的定義是在表定時間誤差 6 分鐘的時間內抵達,這個糟糕的準點率不僅大幅退步,更是排名墊底,在 23 個歐盟國家內只贏過 2 個國家,立陶宛的 74.8% 準點率以及葡萄牙的 77% 準點率。

就在德國準點率掉漆的同時,德國綜合機電大廠西門子,卻在西班牙創造準點率標竿,西門子與西班牙國家鐵路(renfe)的合資公司,在西班牙所管理 的列車行程中,每 2,300 趟只有一趟延遲超過 5 分鐘,準點率高達 99.98%,不僅高於西班牙全國平均 89.9%,更高於歐盟之中的佼佼者芬蘭的 95.4%。

西班牙國家鐵路對準點率的信心,反應在誤點賠償上,要是從馬德里到巴塞隆納的高速列車延遲超過 15 分鐘,可以全額退費賠償。

這個準點率標竿來自於物聯網與大資料的概念,西門子列車上如今有無數感測器可以傳遞資訊給西門子做分析,西門子把慕尼黑附近阿拉克(allach) 的火車頭工廠改造成為資料中心,有 30 位軟體專家分析西門子列車感測器傳來的大量資料,以大資料分析事先**零部件該更換的時間,在實際損壞之前,於例行維修中預先更換,確保行駛中不會發生故 障,也就防止因機械故障造成的誤點。

一輛列車延遲,會導致後續車班大亂,以倫敦地鐵來說,要是早上 7 點有列車故障,到 12 點車班都還會受到影響,因此能預先維修防止故障對鐵路運輸來說相當重要。

預先維修改變產業營運方式

預先維修並非新觀念,在工廠生產線領域早在 15 年前就開始應用,因為工廠生產線若是運轉中因零件長久耗損而故障停擺,產線整個停下來修理,那可損失大了,因此很早就發展預先維修。

隨著網路鏈結性提公升,預先維修的觀念逐漸擴充套件至消費性產品與服務領域,其中,航空產業又是新觀念的領航者,兩大航空引擎商勞斯萊斯(rolls- royce)與奇異(ge)英雄所見略同,認為賣引擎不只是銀貨兩訖就好,預先維修的觀念,讓引擎製造商還能以時間為單位收取維護服務費用,在服務期限內 保證客戶的引擎不發生故障。

預先維修也改變了鐵路業的商業模式,過去鐵路業者要自行準備預算來修復故障車輛與系統,如今,西門子將預先維修當做服務銷售,賣給鐵路營運者「可用性」,保證列車在需要時不故障一定可用。

這種概念也延伸到汽車業,過去定期回廠檢修時,若發現車主的耗件已經損耗 7 成,往往就直接更換,因為這個耗件大概無法撐到明年回廠檢修。但是,其實該耗件或許還能安全地開上半年沒問題,提早更換不但花錢,也造成浪費;如今,奧迪 (audi)就引進了預先維修概念,汽車車身上裝有感測器,能把資料傳給經銷商,若從資料中察覺有耗件即將損壞,就立即安排在最適當時間回廠換修,如此一 來,一方面可確保不會開到一半故障,一方面可把耗件使用到最長時間,節省消費者的金錢。

同樣的概念也早已應用於電梯產業,蒂森克虜伯(thyssenkrupp)於 2015 年開始於其全球 120 萬輛電梯中安裝加速度、聲音與震動感測器,透過回傳的資料,可以準確預估電梯 10~20 天內需要維修,此時蒂森克虜伯可提前通知客戶,告知有零件耗損風險,需要預先維修,由於提前通知,利於安排在客戶最方便的時間進行。而由於有必要才維修, 也減少了維修次數,目前電梯平均每年定期維修 5~6 次,加裝感測器之後,只需要 3 次,1 年可為蒂森克虜伯節省高達數億歐元。

物聯網與大資料分析應用,不僅可望讓德國列車恢復準時,也已經改變許多產業的營運方式。

大資料分析工具

新 指數 清博大資料 新 指數 www.gsdata.cn 是新 大資料第一平台,為運營新 利器 現已開通賬號分鐘級監測服務,打擊粉絲造假賬號,支援使用者自主監測新 資料 定製各類榜單,並提供資料api等各類增值服務。資料視覺化工具 cytoscape 圖表秀 資料觀 微博足跡視覺化 bdp個人版 ...

大資料分析流程

愛資料學院 welcome 一 為什麼要做乙份資料報告 你是乙個工作了一段時間的白領,你覺得現在這份工作不適合你,你下班以後去逛知乎,在上面看到很多人在說大資料代表未來,資料分析師是21世紀最 的十大職業之一 你激動了,你也要成為資料分析師,你利用空餘時間補上了統計知識,學了分析工具,然後發現自己目...

大資料分析框架

spark 是在 hadoop 的基礎上進行了一些架構上的改良。spark 與hadoop 最大的不同點在於,hadoop 使用硬碟來儲存資料,而spark 使用記憶體來儲存資料,因此 spark 可以提供超過 ha?doop 100 倍的運算速度。由於記憶體斷電後會丟失資料,spark不能用於處理...