久久亚洲一区二区三区四区,亚洲熟妇av一区二区三区色堂,国产精品免费大片,精品无码久久久久久久久曰韩邻居

當(dāng)前位置:首頁 > 最新資訊 > 行業(yè)資訊

如何通過機(jī)器學(xué)習(xí)算法設(shè)計(jì)軟傳感器?

通過理解機(jī)器學(xué)習(xí)算法的功能,工程師可以為他們的應(yīng)用生成有效的軟傳感器。

如何通過機(jī)器學(xué)習(xí)算法設(shè)計(jì)軟傳感器?

軟傳感器(soft sensor),也稱為虛擬傳感器,是一種可以綜合處理數(shù)百個(gè)測量數(shù)據(jù)的軟件。想要添加軟傳感器的工廠管理者可能會(huì)對使軟傳感器工作的機(jī)器學(xué)習(xí)的范圍感到不知所措。然而,深入了解這個(gè)主題會(huì)發(fā)現(xiàn),其實(shí)大多數(shù)軟傳感器設(shè)計(jì)背后都離不開幾種核心算法。

雖然這些模型的選擇、訓(xùn)練和實(shí)施很多時(shí)候是數(shù)據(jù)科學(xué)家的工作,但工廠管理者和其他運(yùn)營專家也會(huì)希望熟悉它們的功能。

理解軟傳感器

軟傳感器是在軟件環(huán)境中創(chuàng)建的,但可以提供與現(xiàn)實(shí)世界中的對應(yīng)物相同的好處。在某些情況下,軟傳感器可能比真實(shí)的傳感器更受歡迎。

因此,運(yùn)營專家和數(shù)據(jù)科學(xué)家應(yīng)該合作設(shè)計(jì)軟傳感器,原因有很多。其中一個(gè)原因是對于特定結(jié)果所需的關(guān)鍵參數(shù)進(jìn)行實(shí)時(shí)或近實(shí)時(shí)測量的渴望。這些測量對于提高整體性能至關(guān)重要。

軟傳感器的其他用例包括:

工廠人員短缺。一些過程需要實(shí)驗(yàn)室人員對特定物理或化學(xué)屬性的參數(shù)進(jìn)行取樣或分析。這些可能包括粘度、分子量和組成。當(dāng)沒有足夠的人員進(jìn)行測量時(shí),可以使用軟傳感器來估計(jì)這些值。

冗余傳感器。在惡劣環(huán)境中,傳感器被污染可能時(shí)有發(fā)生。軟傳感器可以提供數(shù)字傳感器的讀數(shù),直到數(shù)字傳感器可以被替換,以保持流程的持續(xù)進(jìn)行。

額外的傳感器。有時(shí)可能需要更多的傳感器,或者某個(gè)過程缺乏自己的傳感器。在這些情況下,軟傳感器可以模仿一個(gè)擁有所有正確傳感器的相同資產(chǎn)。

機(jī)器學(xué)習(xí)模型的主要類型

機(jī)器學(xué)習(xí)練習(xí)遵循一個(gè)循環(huán)模式。首先,數(shù)據(jù)被準(zhǔn)備和清洗。接下來,數(shù)據(jù)科學(xué)家將選擇一個(gè)算法作為模型的基礎(chǔ)。然后,數(shù)據(jù)科學(xué)家將開始使用未經(jīng)處理或預(yù)處理的時(shí)間序列和上下文數(shù)據(jù)訓(xùn)練模型。最后,模型被測試和部署。然后過程再次開始,以改進(jìn)模型。

一般來說,有兩種主要類型的模型可供選擇:

監(jiān)督模型,需要標(biāo)記的數(shù)據(jù)集與其它變量進(jìn)行比較。

無監(jiān)督模型,主要用于描述多個(gè)變量之間的關(guān)系。

在這些模型中,監(jiān)督模型是開發(fā)軟傳感器或創(chuàng)建預(yù)測標(biāo)簽的更好選擇。盡管有數(shù)百種監(jiān)督機(jī)器學(xué)習(xí)模型,但只有少數(shù)——來自被稱為回歸算法的類別——對于創(chuàng)建軟傳感器是有用的。以下是每種模型的描述:

線性回歸

這是創(chuàng)建軟傳感器最有用和最簡單的方法之一。然而,某些過程,如測量聚合物的粘度,對于線性回歸來說太復(fù)雜了。這個(gè)算法生成一個(gè)函數(shù),預(yù)測目標(biāo)變量的值。它是作為一組一個(gè)或多個(gè)變量的線性組合的函數(shù)。當(dāng)使用一個(gè)變量時(shí),它被稱為單變量線性回歸。多個(gè)變量賦予它多元線性回歸的名稱。使用這個(gè)模型的好處在于其清晰性。很容易確定哪些變量對目標(biāo)的影響最大。這被稱為特征重要性。

決策樹

理論上,決策樹可以擁有它們需要的任意多的規(guī)則和分支來適應(yīng)數(shù)據(jù)。它們使用這些規(guī)則來自獨(dú)立變量,稱為一組特征。結(jié)果是目標(biāo)值的分段常量估計(jì)。因?yàn)樗鼈兛梢杂泻芏嘁?guī)則和分支,所以它們可以非常靈活。

另一方面,它們也存在過擬合數(shù)據(jù)的風(fēng)險(xiǎn)。過擬合發(fā)生在模型訓(xùn)練時(shí)間過長時(shí)。這使得模型開始適應(yīng)數(shù)據(jù)集中的噪聲,并開始將其視為正常。欠擬合數(shù)據(jù)也可能發(fā)生。在這種情況下,算法訓(xùn)練不夠長,因此沒有足夠的數(shù)據(jù)來確定獨(dú)立變量可能如何與目標(biāo)變量相關(guān),或者它們可能對目標(biāo)變量有什么影響。

過擬合和欠擬合數(shù)據(jù)都會(huì)導(dǎo)致模型失敗。模型再也不能處理新數(shù)據(jù),也不能用于軟傳感器。過擬合和欠擬合數(shù)據(jù)的概念不是決策樹模型獨(dú)有的。

隨機(jī)森林

這本質(zhì)上是一個(gè)模型中多個(gè)決策樹模型的組合。它提供了更多的靈活性,允許更多的特征,并且給出了更強(qiáng)的預(yù)測能力。然而,它也帶來了過擬合數(shù)據(jù)的高風(fēng)險(xiǎn)。

梯度提升

在機(jī)器學(xué)習(xí)中,梯度提升通常被稱為集成模型。像隨機(jī)森林一樣,梯度提升結(jié)合了多個(gè)決策樹。但它的不同之處在于,它優(yōu)化每棵樹以最小化最后計(jì)算的損失函數(shù)。這些模型可以非常有效,但隨著時(shí)間的推移,它們變得更難以解釋。

神經(jīng)網(wǎng)絡(luò)

所謂的深度學(xué)習(xí)是一個(gè)神經(jīng)網(wǎng)絡(luò)回歸模型的概念。這個(gè)模型接受輸入變量,并在應(yīng)用于回歸問題時(shí),為目標(biāo)變量生成一個(gè)值。最基本的神經(jīng)網(wǎng)絡(luò)是多層感知器。在這些模型中,只使用單一的神經(jīng)元排列。更常見的是,神經(jīng)網(wǎng)絡(luò)將具有一個(gè)輸入層、一個(gè)或多個(gè)隱藏層(每個(gè)都有許多神經(jīng)元)和一個(gè)輸出層來獲取值。

隱藏層中每個(gè)神經(jīng)元內(nèi)的加權(quán)輸入值被相加,并通過激活函數(shù)(如Sigmoid函數(shù))傳遞。這個(gè)函數(shù)使模型非線性。一旦函數(shù)通過模型,它就到達(dá)包含單個(gè)神經(jīng)元的輸出層。在訓(xùn)練模型時(shí),確定最適合特征和目標(biāo)值的權(quán)重和偏差。

協(xié)作設(shè)計(jì)

對于那些新手來說,一個(gè)常見的誤解是會(huì)有一個(gè)正確的模型適合所有特定的需求。事實(shí)并非如此。選擇一個(gè)模型而不是另一個(gè),其實(shí)是一個(gè)復(fù)雜的決策,部分基于數(shù)據(jù)科學(xué)家的經(jīng)驗(yàn)。

此外,這些監(jiān)督回歸模型不會(huì)每次都產(chǎn)生相同的結(jié)果。因此,不存在“最佳”模型,但有些模型可能更適合某些情況。

任何機(jī)器學(xué)習(xí)練習(xí)中的數(shù)據(jù)科學(xué)家和運(yùn)營專家之間的合作都始于對涉及的參數(shù)、目標(biāo)使用、開發(fā)和部署方法的相互理解。

猜你喜歡