AI在安防行業的探索和落地:大模型賦能下,如何塑造安防新紀元?
來源:安防行業網
|
作者:龍運智能
|
發布時間: 2023-12-08
|
1033 次瀏覽
|
分享到:
隨著人工智能技術的不斷發展和應用,安防領域正成為AI技術商業化落地發展最快、市場容量最大的主賽道之一。在AI大模型的賦能下,安防行業將會迎來怎樣的新突破和新發展呢?

隨著人工智能技術的不斷發展和應用,安防領域正成為AI技術商業化落地發展最快、市場容量最大的主賽道之一。在AI大模型的賦能下,安防行業將會迎來怎樣的新突破和新發展呢?據深圳市安全防范行業協會等機構的調查統計顯示,安防行業2023年產值約為9460億元,增長幅度為4.9%。同時,相關報道顯示,2022年中國安防設備市場達1878億元,其中視頻監控市場達808億元,防盜報警市場達214億元,出入口控制市場達528億元,樓宇對講、智能家居市場達328元。2023處于經濟發展的復蘇期,那么對于安防市場而言,在過去一年里有哪些明顯的變化呢?其實安防市場大的變化主要有2個方面:一是傳統的政府類項目市場進展緩慢,隨著雪亮工程等大規模城市級項目建設進入尾聲,政府端對公共安全的投入呈現放緩的態勢,大部分企業開始向商業市場布局;二是生成式AI及大模型席卷各行各業,安防行業作為AI落地最佳場景,在過去的三年中卻陷入了沉默期。ChatGPT的出現讓大眾領略到生成式AI的力量,令人振奮,這也宣告著大模型時代正式到來。對此,安防人也更多的思考——視頻感知、圖像感知與大模型結合,會有怎樣的技術變革?安防、智慧物聯碰上大模型,會產生怎樣的火花?在安博會開場的前一天,10月24日,大華發布了星漢大模型。早在今年五月,宇視就發布了“梧桐”大模型。如今,大華的入局,將AI大模型這一池子水,攪動得更劇烈了。據悉,大華“星漢”大模型是以視覺解析為核心的多模態融合行業大模型,能夠帶來AI算法準確性和泛化性躍升,實現圖文提示定義新功能,突破視覺認知能力,全場景自主解析,高效滿足海量碎片化需求,將首先在城市治理和電力行業進行應用。值得注意的是,“星漢”大模型支持大小模型與算力協同,通過算法融合,實現大小模型協同部署,為用戶構建好用、用得起的大模型系統。大華還專門成立未來通信研究院,專注進行視頻數據智能化連接的底層研究,對“全連接”能力進行加強和提升。同為股份也特地開辟了一塊AI大模型系統體驗區,同時展出了同為開放訓練解決方案,支持大模型少樣本學習的能力,易于開發跨場景算法應用,助力視覺AI算法在更多細分行業落地,打通AI落地的最后一公里。據悉,同為自研的AI大模型系統屬于百億級視覺語言多模態大模型,可深度理解視頻和自然語言,感知場景中更多目標種類、屬性和關聯態勢,進一步提升安防系統的管理的范圍、效率和智能化程度。據工作人員介紹,目前同為AI大模型尚未正式發布,此次在展區展出的AI大模型系統為首次展出,預計年底將正式發布全新的行業大模型,可深度加持、理解安防行業任務和數據,進一步賦能安防產業生態圈。記者走訪了解到,天視通也正在著手自研行業大模型的工作,專注研發人/動物的精準識別和統計,以期借助智能算法動物識別技術幫助畜牧業實現高效的動物管理,自動記錄動物種類、數量等信息,增強算法泛化能力,實現精準的養殖和數據分析。記者發現,算能也設置了一個互動體驗區——AIGC繪畫體驗、AI公文寫作等互動體驗,全面展示了AI生成、AI校對、AI續寫、AI靈感等智能能力,十分有趣。例如,在AI公文寫作互動中,輸入“工作報告”等兩三個關鍵詞標簽,便可生成一篇文章,并且關鍵詞越具體,輸出的內容也越專業、具體。此外,還有針對法律行業的大模型-智能法務助理法小開——可根據輸入內容,為咨詢者提出相對專業、細化的法律依據與建議。還有,熵基展出的BioCV大語言模型也支持多語言表達與理解、持續繪畫、邏輯推理等能力。并且基于7B模型進行場景微調,開發了基于大語言模型的醫療助手,實現了位置查詢、在班醫生查詢和預約醫生等功能。此外,360智慧生活展區的視覺云應用體驗區也有生成式AI的展示成果——圖文問答、開放目標檢測......仍有多家企業展會上秀出大模型的“肌肉”。整體來看,越來越多的中大型企業已經開始注重自研行業大模型的能力。AI大模型,已經不再只是一個概念,它變成了一種能力的體現,開始成為真正有實力底蘊的安防、智慧物聯廠商秀“肌肉”的舞臺。AI大模型在漸進落地的過程中,將會有越來越多的玩家涌入,安防識別與分析能力將會有質的飛躍。以AIGC為例,其在語義理解、文本創作、邏輯推理等領域的卓越表現,以及自然語言對話的低門檻交互方式,讓行業看到智能化升級又將迎來新的發展空間。對于特定行業的碎片化場景,用戶其實并不需要通用大模型的全面能力,更需要行業大模型的精度和質量。在行業知識圖譜的基礎上,以沉淀的行業數據、專家經驗以及工程實踐能力予以配合,通用大模型演進下的行業垂直模型將拉開強人工智能場景化應用新序幕。眾所周知,作為數字化和智能化應用的前沿領域,安防行業擁有極為豐富的感知設備和可觀的數據資源,再加上廣泛的應用場景,行業必將成為大模型率先落地的垂直領域之一。伴隨著高性能、高穩定的大模型不斷突破發展,更高通用性和工業化水平AI2.0將持續拓寬安防行業數字化、智能化的邊界。一方面大模型、AGI等新一輪的AI技術變革將使得安防領域AI算法更加精準。另一方面通過多模態技術可以將圖像、語音和文本等數據進行融合,實現多樣化海量數據深度挖掘,并在此基礎上進一步提取數據內容關聯價值。例如在多種非結構性數據中提取相關的人、事、物、組織等關鍵要素,繼而形成具有知識價值的圖譜,不但提升了長尾AI需求落地的效率和效果,更有可能改變相關產品研發、項目運營等環節的交互方式。可以相信,伴隨著AI大模型等技術在安防領域逐漸落地及場景突破,有望在行業內真正構建起事前預測預防、事中制止、事后監督的治理體系與機制,進而提高社會預測預警預防各類風險能力,增強社會公共安全防控的整體性、協同性、精準性,更能推而廣之,探索安防在安全生產、應急防災、生態建設與保護等領域的深度應用。AI大模型融入公共安全領域其背后的價值將不可估量。在誘人的發展前景外,技術的雙刃劍效應在AI大模型上依然不容小覷。正如覃智泉主任所言,當前公安領域面臨著AI大模型應用及安全方面諸多問題需要深入思考。在應用方面,哪些業務可以引入大模型?用哪些業務數據進行大模型訓練?數以千億計的數據進行訓練必將帶來高昂的費用支出,誰來承擔?大模型在公安工作中落地應用,帶來的法律跟責任問題該如何界定等等;在安全方面,如何保證訓練數據安全,AI大模型帶來的虛假信息、深度偽造信息等如何解決?這些已經成為阻擋AI大模型賦能公安應用較為現實的問題。在AI大模型應用部署上,華為技術有限公司科學家胡善勇也提出:由通用大模型向專業行業大模型演進,需要投入高昂的算力成本、數據成本、算法成本以及人力成本,這與狹窄行業應用對應的商業價值和商業收益不成正比,因此目前來看,面向行業大模型還難以形成正向的商業應用閉環,需要企業持續不斷地試錯與投入。安全問題是AI大模型另一較為凸顯的話題,近段時間無論是AI“黑產”,還是深度偽造帶來的涉詐犯罪風險正在積聚。在此次人工智能論壇上,美亞柏科AI研發中心總經理趙建強等相關專家系統地總結了AI大模型在數據安全方面面臨的一些困境:一方面AI大模型存在算法、數據等安全風險。以算法風險為例,大模型無法抵抗提示注入、對抗樣本等攻擊,可靠性低。如受到攻擊,用于大模型訓練的一些個人隱私數據容易泄露,尤其是涉及到的個人身份信息。同時,它還存在歧視、倫理偏見等數據方面的問題。另一方面大模型、生成式AI(AIGC)技術存在被不法分子利用的風險,如通過深度偽造相關視頻或圖像信息進行詐騙,目前國內已經出現類似的案件。同時,生成式人工智能技術可能帶來非常多的虛假信息,或者說加速虛假信息的生成和傳播。除了以上兩個方面,AI大模型或者生成式人工智能技術本身及應用過程中還會帶來很多在倫理道德、法理、法律等方面的挑戰,甚至可能影響整個社會穩定,危害到國家安全。據賽迪顧問統計顯示,截至2023年7月,國內累計已經有130個大模型問世,再加上一些企業孵化的行業大模型,有人戲稱目前國內已經進入“千模大戰”。然而,這些大模型是否果真名副其實,能否稱得上“大模型”,以及當前公布的大模型算法是否有缺陷、內容是否符合法律法規要求及政策監管,都不得而知。面對大模型、AIGC急速發展帶來的一系列應用與安全問題,如何構建可信的AI大模型、實現對AIGC內容的規范管理已經成為行業及國家重點關注的內容。清華大學互聯網司法研究院助理教授艾清遙表示,相較于智能輔助駕駛,目前對于AI大模型能力的評測,尤其是AIGC內容方面的檢測還沒有一個通用指標或通用范式。在安全問題受到高度重視的當下,AI大模型產業需要統籌發展與安全,特別是涉及公共安全領域的垂直應用大模型,亟需建立可信與規范化的評測標準體系。“變革是由問題倒逼而產生,又在不斷解決問題中而深化。”AI通用大模型在向行業大模型持續精進的過程中,需要跨過應用適配性與安全規范化兩道坎,這也是當前各個行業針對大模型發力的重點。“行業大模型落地部署,硬件非常簡單,通過加大算力的部署即可實現。真正的挑戰是軟件技術以及對行業業務層面的深度理解。”胡善勇表示,行業大模型對公共安全治理將會是一場非常重大開創性變革,雖然在公安與司法領域,大模型商業化應用閉環還較難實現,但前期的戰略預研至關重要,這不但需要國家及地方政府予以資源支持,還需要在統一引領下,通過產學研以及社會組織共同努力實現預研的持續推進,在為大模型行業化應用打下堅實基礎的前提下,相信在未來三到五年公共安全行業大模型應用將會有成效彰顯。自AI落地行業之日起,安全問題已經不是一個應用層面的問題,而是產業級問題。胡善勇特別強調,AI安全問題關鍵是源頭,通過法律、法規前置化處理以達到治理非結構數據帶來的深度偽造與虛假信息。趙建強也提出,針對AI大模型及生成式人工智能技術的安全治理需要從多個方面入手:一是要源頭治理,國家發布的《生成式人工智能服務管理暫行辦法》明確提出來在生成式人工智能技術研發過程中進行數據標注。相關部門也將制定相應的分類分級監管規則或者指引,加強對生成式人工智能的模型、算法、數據的安全評估和管控。二是要加強行業自律,無論是內容生產、應用還是服務,相關企業需要加強自律,需要對大模型從技術、內容等方面進行深度審核、管理、治理;行業組織則需加快相應產品評估方法和標準落地,以引導行業發展。三是通過技術的方式去支撐法律、規則和標準落地,實現對大模型產品的“質檢”。目前人為因素已經沒有辦法監督和評價生成式人工智能所生成的內容,需要通過AI方式進行鑒別,以AI對抗AI,進而實現對大模型進行安全性評估,對內容數據進行相應的監督檢查,實現最大限度發現可能存在的偽造、虛假信息。正如前段時間熱映的《奧本海默》引發的熱議,原子彈的研發對人類而言最終是利是弊,發人深省。也許當前社會正處于強人工智能的“奧本海默時刻”,面對快速迭代的AI大模型以及AIGC技術,AI技術“雙刃劍”效應必然要求行業必須堅持發展與安全并重的態度,才能讓新技術真正發揮更大價值。
(文章來源于:安防行業網,如有侵權請聯系刪除)