新聞資訊
熱門推薦
- 2024年福州獵頭公司整體經營情況如何?福州獵頭如如何應對目前的市場挑戰?
- 福州有哪些高層次人才需求?福州高層次人才有哪些福利待遇?
- 福州高級人才獵頭公司:福州哪些行業人才緊缺?哪些行業薪資比較高?
- 福州獵頭公司分享企業人才盤點的步驟、工具和方法
- 企業通過獵頭公司找人才有哪些優勢?
- 2024年儲能行業人才需求,人才爭奪張硝煙四起
- 2024年機器人行業自動化發展五大趨勢
- 2024年儲能行業低價競爭,卷出新高度
- 福州獵頭公司分享2024年時尚服裝行業將迎來轉折點
咨詢熱線 400-8325-007
熱門標簽
- 省海外高層次人才引進計劃 福州獵頭公司服務 福州玨佳獵頭公司 儲能行業 福州十大獵頭公司 儲能 福州高端人才獵頭公司 福州獵頭 玨佳獵頭公司 福州獵頭公司招聘 福州獵頭行業 儲能技術 領軍人才創新項目 福州有哪些獵頭公司 青年人才 創新人才 福州獵頭公司收費標準 國家海外高層次人才引進計劃 福州獵頭公司哪家好 海外人才 福州獵頭公司前十名排名 國家海外高層次人才 福州專業獵頭公 青年人才項目 獵頭公司排行 福州本地獵頭公司 高層次人才 福州哪家獵頭公司好 海外高層次人才 福州知名獵頭公司 福州靠譜獵頭公司 福州優秀獵頭公司 火炬計劃 福州哪家獵頭公司 高級人才 福州獵頭公司排名 福州獵頭公司有哪些 省海外高層次人才 領軍人才創新 福州獵頭機構 福州獵頭公司收費 福州獵頭公司 啟明計劃 福州專業獵頭公司 福州哪家獵 高端人才
福州獵頭公司分享:未來3-5年高技術人才短缺將成為大數據行業發展的最大障礙
大數據無疑是當下最流行的熱詞和前沿技術之一。本質上,大數據具有三大類特征:快速、海量和復雜,大多數公司都在經歷著這三大特征的各種形態組合。目前,這些特征中,還存在很多較難以解決的挑戰,諸如處理數據流中的丟失、重復問題,數據質量參差不齊,數據存儲成本高,大數據人才缺乏等。在本文中,我們將對“大數據”的問題進行拆分,是什么使大數據充滿挑戰,以及現在我們如何用最新的方法解決這些問題。
我們將對“大數據”的問題進行拆分,是什么使大數據充滿挑戰,以及現在我們如何解決這些問題。大數據一度成為流行語,但本質上它是指具備這三大類特征的數據:快速,海量和復雜。讓我們仔細研究下這些特征,舉一些例子,看看如何用最新的方法解決這些難題。
“大數據是描述海量的高速、復雜和多變數據的一個術語,這些數據需要結合先進的技能和技術來實現信息的捕獲、存儲、分發、管理和分析”( TechAmerica Foundation’s Federal Big Data Commission, 2012 )
高速的數據
高速的數據指什么?高速的數據指在短時間內產生的大量的數據。比如汽車工廠的傳感器數據,溫度監測器,飛行儀表等產生的數據。
高速數據通常被認為是實時的或是準實時的數據流。數據流本質上是在生成后就發給處理器的數據包(比如天線收到的電視信號或是通過固話傳輸的語音電話)。實時數據的定義值得深入討論,但是它本質上可以歸結為需要在毫秒內被更新的數據。處理數據流有很多挑戰,包括在采集時不丟失數據、處理數據流中的重復記錄、流數據與更大的歷史數據集集成、以及進行實時分析。
傳統的數據流服務比如 Rabbit MQ 和 Active MQ 只在單節點上運行因此收到了服務器能力的限制。Apache Kafka 引入了分布式流服務的概念,使得數據流可以分散到多個節點(服務器)上。這實現了高吞吐的流處理,每秒能達到數百萬條。隨著服務向云上的遷移,開發者不用再管理底層的硬件。亞馬遜的 Kinesis 和谷歌的 Pub/Sub 將后方的服務器完全抽離,使開發者能夠更專注于業務邏輯和數據。 ELK 是常用的在流式數據上作實時分析的技術棧。ELK 由多個工具組成,用 Log Stash 將多種數據源的數據傳輸進 Elastic Search(ES)。在 ES 中存儲的數據可以輕松的通過特定的短語和關鍵詞檢索到。Kibana 是 ES 最上層的工具,它在數據流入時就能進行實時分析,用戶可以通過它來查詢數據、為數據創建度量。
海量數據
“大數據”的第二個
特征是數據量足夠大。
典型的例如一個包含頂級投資銀行 20 年股票交易歷史的超大數據集,20 年間所有信用卡的交易記錄,或是熱門網站(如 buzz feed)的用戶交互信息等。通常這些數據都會在 TB 甚至 PB 量級。
處理超大數據集通常會受到存儲和處理數據的計算資源的限制。通常一塊商用硬盤可以容納 1TB 的數據量。有些數據集能有好多 PB(相當于上千塊硬盤的容量)。這些數據需要在數據中心內跨多個服務器(或傳統的 RAID 盤)存儲。除此之外,處理這些數據也需要大量的物理內存和 CPU。
Hadoop(一個開源分布式大數據處理生態)的出現一定程度上降低了數據處理的成本。這套系統的核心是 Hive,一種能像數據庫一樣存儲數據的類 SQL 處理系統。數據處理在商用硬件上進行,使用 Map-Reduce 算法(專門為分布式處理設計的算法)。這些服務器通常被存放在數據中心。但是,管理維護數據中心和 Hadoop 套件的成本非常高。
但最近,很多的存儲和處理都轉移到了云上,比如 Amazon Web Service (AWS) 和 Google Cloud Platform (GCP) 這些主流玩家。AWS 和 GCP 都提供受管理的 map reduce 或 spark 服務(AWS Elastic Map Reduce 以及 GCP Cloud data proc)。他們也提供大規模可擴展的數據庫服務(分別是 Google Big Query 和 AWS Redshift),能為 PB 級的數據集提供關系型數據庫服務。這些解決方案最大的優點是用戶不用管理底層的硬件,可以專注于更重要的任務,如存儲 / 移動數據或者是寫 SQL。這個生態中的典型玩家是 Snowflake,在 AWS 中提供即買即用的數據處理服務。
復雜數據
“大數據”的第三個特征是復雜。在解釋什么造成了數據的復雜性前,我先講下理想的數據集是什么樣的。理想的數據集有預先定義的 schema,每種數據類型(string, number, date)都有定義好的主鍵,以及完善的數據字典。數據集中沒有重復,所有的值都是精準的。
復雜數據的概念和理想數據完全相反。所有數據集都有一定的復雜性,但有一些天生更難處理。通常這些復雜數據集沒有定義結構(沒有行列結構),經常變化,數據質量很差或沒有記錄。
比如人工輸入的醫生的筆記、博客的文字、時刻更新的網頁日志以及深嵌套的 XML 或 JSON 文件。
為復雜數據做快速標注時,大多數不好的數據應該在源頭就進行識別。數據工程師需要構建足夠強壯的系統來快速獲取和過濾這些數據集,但是這些數據最終還是要在源頭糾正。此外,如果可以,我們建議在數據產生的源頭定好 SLA 來減少低質量的數據,使數據更好管理。
處理復雜數據集,讓它們能遵從整潔的格式需要下很大的功夫。每種數據質量問題都需要區別處理,比如記錄重復、主鍵缺失、字符 / 字符串的格式錯誤等。
有很多工具可以用來處理這種數據。通常數據科學家和工程師會用 Jupyter notebook 以及 Pandas 或 Spark 來處理、分析、可視化這些數據集。Jupyter 為開發者提供了交互式的環境使他們能在代碼中逐行遍歷數據集,從而節省很多時間。Databricks 也提供了非常好的數據處理和分析環境,包含了一個類似 Jupyter notebook 的 UI、獨有的 Spark 特性、以及簡單易用的節點管理能力。
還有很多第三方的工具,比如 Trifacta,能夠自動進行一些數據清洗任務,通過提供 UI 和非常好的功能代替完全手寫的數據清洗代碼,來加速清洗和分析任務。Google Cloud 在 GCP 中提供了這個工具 cloud Data Prep。
小結
可以看出,這些特征中的任何一個挑戰都很難解決。但是,大多數的公司都經歷著這三種問題的各種形態組合。挑戰變得更龐大了,這需要衡量不同的工具和方法來解決他們特定的問題。
向云服務的轉移很大程度上降低了處理和管理大數據的壁壘,公司不再需要建設數據中心并且花大量的預算在專用軟件上。但是招聘懂得如何使用正確的工具來處理大數據問題的人才仍然是個難題。
降低大數據使用門檻的下一步是利用機器學習技術來理解數據的結構以及監測數據發生的變化。由于高技能人才將成為處理大數據的瓶頸,未來 5-10 年間產生的下一代工具,很可能會關注這些特征。