色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何用Python計算機器學習中特征的重要程度?

倩倩 ? 來源:deephub ? 2020-04-15 11:30 ? 次閱讀

特征重要性評分是一種為輸入特征評分的手段,其依據是輸入特征在預測目標變量過程中的有用程度。

特征重要性有許多類型和來源,盡管有許多比較常見,比如說統計相關性得分,線性模型的部分系數,基于決策樹的特征重要性和經過隨機排序得到重要性得分。

特征重要性在預測建模項目中起著重要作用,包括提供對數據、模型的見解,以及如何降維和選擇特征,從而提高預測模型的的效率和有效性。

在本教程中,我將會闡述用于python機器學習的特征重要性。完成本教程后,你將會知道:

特征重要性在預測建模中的作用

如何計算和查看來自線性模型和決策樹的特征重要性

如何計算和查看隨機排序重要性得分

現在讓我們開始吧。

教程概述

本教程分為五部分,分別是:

1.特征重要性

2.準備

2.1. 檢查Scikit-Learn版本

2.2. 創建測試數據集

3.特征重要性系數

3.1. 基于線性回歸系數的特征重要性

3.2. 基于Logistic回歸的特征重要性

4.基于決策樹的特征重要性

4.1. 基于CART的特征重要性

4.2. 基于隨機森林的特征重要性

4.3. 基于XGBoost的特征重要性

5.隨機排序特征重要性

5.1. 隨機排序(回歸)中的特征重要性

5.2. 隨機排序(分類)中的特征重要性

1.特征重要性

特征重要性是一種為預測模型的輸入特征評分的方法,該方法揭示了進行預測時每個特征的相對重要性。

可以為涉及預測數值的問題(稱為回歸)和涉及預測類別標簽的問題(稱為分類)計算特征重要性得分。

這些得分非常有用,可用于預測建模問題中的多種情況,例如:

更好地理解數據

更好地理解模型

減少輸入特征的數量

特征重要性得分可以幫助了解數據集

相對得分可以突出顯示哪些特征可能與目標最相關,反之則突出哪些特征最不相關。這可以由一個領域專家解釋,并且可以用作收集更多的或不同的數據的基礎。

特征重要性得分可以幫助了解模型

大多數重要性得分是通過數據集擬合出的預測模型計算的。查看重要性得分可以洞悉該特定模型,以及知道在進行預測時哪些特征最重要和哪些最不重要。這是一種模型解釋,適用于那些支持它的模型。

特征重要性可用于改進預測模型

可以使用的重要性得分來選擇要刪除的特征(最低得分)或要保留的特征(最高得分)。這是一種特征選擇,可以簡化正在建模的問題,加快建模過程(刪除特征稱為降維),在某些情況下,還可以改善模型的性能。

特征重要性得分可以被輸入到包裝器模型,如SelectFromModel或SelectKBest,以進行特征選擇。

有許多方法和模型可以計算特征重要性得分。

也許最簡單的方法是計算每個特征和目標變量之間的統計學相關系數。

在本教程中,我們將研究三種比較高級的特征重要性,即:

從模型系數得知的特征重要性。

決策樹中的特征重要性。

隨機排序檢驗中的特征重要性。

現在讓我們深入了解這三個!

2.準備

在深入學習之前,我們先確認我們的環境并準備一些測試數據集。

檢查Scikit-Learn版本

首先,確認你已安裝最新版本的scikit-learn庫。這非常重要,因為在本教程中,我們我們研究的一些模型需要最新版的庫。

您可以使用以下示例代碼來查看已安裝的庫的版本:

# check scikit-learn version

import sklearn

print(sklearn.__version__)

運行示例代碼將會打印出庫的版本。在撰寫本文時,大概是version 0.22。你需要使用此版本或更高版本的scikit-learn。

0.22.1

生成測試數據集

接下來,讓我們生成一些測試數據集,這些數據集可以作為基礎來證明和探索特征重要性得分。每個測試問題有五個重要特征和五不重要的特征,看看哪種方法可以根據其重要性找到或區分特征可能會比較有意思。

分類數據集

我們將使用make_classification()函數創建一個用于測試的二進制分類數據集。

數據集將包含1000個實例,且包含10個輸入特征,其中五個將會提供信息,其余五個是多余的。

為了確保每次運行代碼時都得到相同的實例,我們將使用假隨機數種子。下面列出了創建數據集的示例。

# test classification dataset

from sklearn.datasets import make_classification

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# summarize the dataset

print(X.shape, y.shape)

運行示例,創建數據集,并確保所需的樣本和特征數量。

(1000, 10) (1000,)

回歸數據集

我們將使用make_regression()函數創建一個用于測試的回歸數據集。

像分類數據集一樣,回歸數據集將包含1000個實例,且包含10個輸入特征,其中五個將會提供信息,其余五個是多余的。

# test regression dataset

from sklearn.datasets import make_regression

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# summarize the dataset

print(X.shape, y.shape)

運行示例,創建數據集,并確保所需的樣本和特征數量。

(1000, 10) (1000,)

接下來,我們仔細看一下特征重要性系數。

3.特征重要性系數

線性的機器學習能夠擬合出預測是輸入值的加權和的模型。

案例包括線性回歸,邏輯回歸,和正則化的擴展案例,如嶺回歸和彈性網絡

所有這些算法都是找到一組要在加權求和中使用的系數,以便進行預測。這些系數可以直接用作粗略類型的特征重要性得分。

我們來仔細研究一下分類和回歸中的特征重要性系數。我們將在數據集中擬合出一個模型以找到系數,然后計算每個輸入特征的重要性得分,最終創建一個條形圖來了解特征的相對重要性。

3.1線性回歸特征重要性

我們可以在回歸數據集中擬合出一個LinearRegression模型,并檢索coeff_屬性,該屬性包含為每個輸入變量(特征)找到的系數。這些系數可以為粗略特征重要性評分提供依據。該模型假設輸入變量具有相同的比例或者在擬合模型之前已被按比例縮放。

下面列出了針對特征重要性的線性回歸系數的完整示例。

# linear regression feature importance

from sklearn.datasets import make_regression

from sklearn.linear_model import LinearRegression

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = LinearRegression()

# fit the model

model.fit(X, y)

# get importance

importance = model.coef_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

得分表明,模型找到了五個重要特征,并用零標記了剩下的特征,實際上,將他們從模型中去除了。

Feature: 0, Score: 0.00000

Feature: 1, Score: 12.44483

Feature: 2, Score: -0.00000

Feature: 3, Score: -0.00000

Feature: 4, Score: 93.32225

Feature: 5, Score: 86.50811

Feature: 6, Score: 26.74607

Feature: 7, Score: 3.28535

Feature: 8, Score: -0.00000

Feature: 9, Score: 0.00000

然后為特征重要性得分創建條形圖。

這種方法也可以用于嶺回歸和彈性網絡模型。

3.2 Logistic回歸特征重要性

就像線性回歸模型一樣,我們也可以在回歸數據集中擬合出一個LogisticRegression模型,并檢索coeff_屬性。這些系數可以為粗略特征重要性評分提供依據。該模型假設輸入變量具有相同的比例或者在擬合模型之前已被按比例縮放。

下面列出了針對特征重要性的Logistic回歸系數的完整示例。

# logistic regression for feature importance

from sklearn.datasets import make_classification

from sklearn.linear_model import LogisticRegression

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = LogisticRegression()

# fit the model

model.fit(X, y)

# get importance

importance = model.coef_[0]

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

回想一下,這是有關0和1的分類問題。請注意系數既可以為正,也可以為負。正數表示預測類別1的特征,而負數表示預測類別0的特征。

從這些結果,至少從我所知道的結果中,無法清晰的確定出重要和不重要特征。

Feature: 0, Score: 0.16320

Feature: 1, Score: -0.64301

Feature: 2, Score: 0.48497

Feature: 3, Score: -0.46190

Feature: 4, Score: 0.18432

Feature: 5, Score: -0.11978

Feature: 6, Score: -0.40602

Feature: 7, Score: 0.03772

Feature: 8, Score: -0.51785

Feature: 9, Score: 0.26540

然后為特征重要性得分創建條形圖。

現在我們已經看到了將系數用作重要性得分的示例,接下來讓我們看向基于決策樹的重要性得分的常見示例

4.基于決策樹的特征重要性

決策樹算法,比如說classification and regression trees(CART)根據Gini系數或熵的減少來提供重要性得分。這個方法也可用于隨機森林和梯度提升算法。

OK.現在讓我們看看相應的運行示例。

4.1基于CART的特征重要性

對于在scikit-learn中實現的特征重要性,我們可以將CART算法用于DecisionTreeRegressor和DecisionTreeClassifier類

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

讓我們看一個用于回歸和分類的示例。

基于CART(回歸)的特征重要性

下面列出了擬合DecisionTreeRegressor和計算特征重要性得分的完整示例。

# decision tree for feature importance on a regression problem

from sklearn.datasets import make_regression

from sklearn.tree import DecisionTreeRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = DecisionTreeRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的三個可能對預測很重要。

Feature: 0, Score: 0.00294

Feature: 1, Score: 0.00502

Feature: 2, Score: 0.00318

Feature: 3, Score: 0.00151

Feature: 4, Score: 0.51648

Feature: 5, Score: 0.43814

Feature: 6, Score: 0.02723

Feature: 7, Score: 0.00200

Feature: 8, Score: 0.00244

Feature: 9, Score: 0.00106

然后為特征重要性得分創建條形圖。

基于CART(分類)的特征重要性

下面列出了擬合DecisionTreeClassifier和計算特征重要性得分的完整示例

# decision tree for feature importance on a classification problem

from sklearn.datasets import make_classification

from sklearn.tree import DecisionTreeClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = DecisionTreeClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的四個可能對預測很重要。

Feature: 0, Score: 0.01486

Feature: 1, Score: 0.01029

Feature: 2, Score: 0.18347

Feature: 3, Score: 0.30295

Feature: 4, Score: 0.08124

Feature: 5, Score: 0.00600

Feature: 6, Score: 0.19646

Feature: 7, Score: 0.02908

Feature: 8, Score: 0.12820

Feature: 9, Score: 0.04745

然后為特征重要性得分創建條形圖。

4.2隨機森林中的特征重要性

對于在scikit-learn中實現的特征重要性,我們可以將Random Forest算法用于DecisionTreeRegressor和DecisionTreeClassifier類。

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

這種方法也可以與裝袋和極端隨機樹(extraTree)算法一起使用。

讓我們看一個用于回歸和分類的示例。

隨機森林(回歸)中的特征重要性

下面列出了擬合RandomForestRegressor和計算特征重要性得分的完整示例

# random forest for feature importance on a regression problem

from sklearn.datasets import make_regression

from sklearn.ensemble import RandomForestRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = RandomForestRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.00280

Feature: 1, Score: 0.00545

Feature: 2, Score: 0.00294

Feature: 3, Score: 0.00289

Feature: 4, Score: 0.52992

Feature: 5, Score: 0.42046

Feature: 6, Score: 0.02663

Feature: 7, Score: 0.00304

Feature: 8, Score: 0.00304

Feature: 9, Score: 0.00283

然后為特征重要性得分創建條形圖。

隨機森林(分類)中的特征重要性

下面列出了擬合RandomForestClassifier和計算特征重要性得分的完整示例

# random forest for feature importance on a classification problem

from sklearn.datasets import make_classification

from sklearn.ensemble import RandomForestClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = RandomForestClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.06523

Feature: 1, Score: 0.10737

Feature: 2, Score: 0.15779

Feature: 3, Score: 0.20422

Feature: 4, Score: 0.08709

Feature: 5, Score: 0.09948

Feature: 6, Score: 0.10009

Feature: 7, Score: 0.04551

Feature: 8, Score: 0.08830

Feature: 9, Score: 0.04493

然后為特征重要性得分創建條形圖。

4.3基于XGBoost的特征重要性

XGBoost是一個庫,它提供了隨機梯度提升算法的高效實現。可以通過XGBRegressor和XGBClassifier類將此算法與scikit-learn一起使用。

擬合后,模型提供feature_importances_屬性,可以訪問該屬性以檢索每個輸入特征的相對重要性得分。

scikit-learn還通過GradientBoostingClassifier和GradientBoostingRegressor提供了該算法,并且可以使用相同的特征選擇方法

首先,安裝XGBoost庫,例如:

sudo pip install xgboost

然后,通過檢查版本號來確認該庫已正確安裝并且可以正常工作。

# check xgboost version

import xgboost

print(xgboost.__version__)

運行該示例,你應該看到以下版本號或者更高版本。

0.90

有關XGBoost庫的更多信息,請看:

XGBoost with Python

讓我們看一個用于回歸和分類問題的示例。

基于XGBoost(回歸)的特征重要性

下面列出了擬合XGBRegressor并且計算特征重要性得分的完整示例

# xgboost for feature importance on a regression problem

from sklearn.datasets import make_regression

from xgboost import XGBRegressor

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = XGBRegressor()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.00060

Feature: 1, Score: 0.01917

Feature: 2, Score: 0.00091

Feature: 3, Score: 0.00118

Feature: 4, Score: 0.49380

Feature: 5, Score: 0.42342

Feature: 6, Score: 0.05057

Feature: 7, Score: 0.00419

Feature: 8, Score: 0.00124

Feature: 9, Score: 0.00491

然后為特征重要性得分創建條形圖。

基于XGBoost(分類)的特征重要性

下面列出了擬合XGBClassifier并且計算特征重要性得分的完整示例

# xgboost for feature importance on a classification problem

from sklearn.datasets import make_classification

from xgboost import XGBClassifier

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = XGBClassifier()

# fit the model

model.fit(X, y)

# get importance

importance = model.feature_importances_

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中有七個可能對預測很重要。

Feature: 0, Score: 0.02464

Feature: 1, Score: 0.08153

Feature: 2, Score: 0.12516

Feature: 3, Score: 0.28400

Feature: 4, Score: 0.12694

Feature: 5, Score: 0.10752

Feature: 6, Score: 0.08624

Feature: 7, Score: 0.04820

Feature: 8, Score: 0.09357

Feature: 9, Score: 0.02220

然后為特征重要性得分創建條形圖。

5.基于隨機排序的特征重要性

隨機排序特征重要性(Permutation feature importance)可以計算相對重要性,與所使用的模型無關。

首先,在數據集中擬合出一個模型,比如說一個不支持本地特征重要性評分的模型。然后,盡管對數據集中的特征值進行了干擾,但仍可以使用該模型進行預測。對數據集中的每個特征進行此操作。然后,再將整個流程重新操作3、5、10或更多次。我們得到每個輸入特征的平均重要性得分(以及在重復的情況下得分的分布)。

此方法可以用于回歸或分類,要求選擇性能指標作為重要性得分的基礎,例如回歸中的均方誤差和分類中的準確性。

可以通過permutation_importance()函數(以模型和數據集為參數)和評分函數進行隨機排序特性選擇。

讓我們看下這個特征選擇方法,其算法并不支持特征選擇,尤其是k近鄰算法( k-nearest neighbors)。

5.1隨機排序(回歸)特征重要性

下面列出了擬合KNeighborsRegressor并且計算特征重要性得分的完整示例。

# permutation feature importance with knn for regression

from sklearn.datasets import make_regression

from sklearn.neighbors import KNeighborsRegressor

from sklearn.inspection import permutation_importance

from matplotlib import pyplot

# define dataset

X, y = make_regression(n_samples=1000, n_features=10, n_informative=5, random_state=1)

# define the model

model = KNeighborsRegressor()

# fit the model

model.fit(X, y)

# perform permutation importance

results = permutation_importance(model, X, y, scoring=‘neg_mean_squared_error’)

# get importance

importance = results.importances_mean

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 175.52007

Feature: 1, Score: 345.80170

Feature: 2, Score: 126.60578

Feature: 3, Score: 95.90081

Feature: 4, Score: 9666.16446

Feature: 5, Score: 8036.79033

Feature: 6, Score: 929.58517

Feature: 7, Score: 139.67416

Feature: 8, Score: 132.06246

Feature: 9, Score: 84.94768

然后為特征重要性得分創建條形圖。

5.2隨機排序(分類)特征重要性

下面列出了擬合KNeighborsClassifier并且計算特征重要性得分的完整示例。

# permutation feature importance with knn for classification

from sklearn.datasets import make_classification

from sklearn.neighbors import KNeighborsClassifier

from sklearn.inspection import permutation_importance

from matplotlib import pyplot

# define dataset

X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_redundant=5, random_state=1)

# define the model

model = KNeighborsClassifier()

# fit the model

model.fit(X, y)

# perform permutation importance

results = permutation_importance(model, X, y, scoring=‘accuracy’)

# get importance

importance = results.importances_mean

# summarize feature importance

for i,v in enumerate(importance):

print(‘Feature: %0d, Score: %.5f’ % (i,v))

# plot feature importance

pyplot.bar([x for x in range(len(importance))], importance)

pyplot.show()

運行示例,擬合模型,然后輸出每個特征的系數值。

結果表明,這十個特征中的兩個或三個可能對預測很重要。

Feature: 0, Score: 0.04760

Feature: 1, Score: 0.06680

Feature: 2, Score: 0.05240

Feature: 3, Score: 0.09300

Feature: 4, Score: 0.05140

Feature: 5, Score: 0.05520

Feature: 6, Score: 0.07920

Feature: 7, Score: 0.05560

Feature: 8, Score: 0.05620

Feature: 9, Score: 0.03080

然后為特征重要性得分創建條形圖。

總結

在本教程中,您知道了在Python機器學習中的特征重要性得分。

具體來說,您了解到:

特征重要性在預測建模問題中的作用

如何從線性模型和決策樹中計算和查看特征重要性

如何計算和查看隨機排序特征重要性得分

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 代碼
    +關注

    關注

    30

    文章

    4802

    瀏覽量

    68735
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24737
  • 網絡模型
    +關注

    關注

    0

    文章

    44

    瀏覽量

    8445
收藏 人收藏

    評論

    相關推薦

    工業中使用哪種計算機

    在工業環境,工控機被廣泛使用。這些計算機的設計可承受極端溫度、灰塵和振動等惡劣條件。它們比標準消費類計算機更耐用、更可靠。工業計算機可控制機器
    的頭像 發表于 11-29 14:07 ?179次閱讀
    工業中使用哪種<b class='flag-5'>計算機</b>?

    簡述計算機總線的分類

    計算機總線作為計算機系統連接各個功能部件的公共通信干線,其結構和分類對于理解計算機硬件系統的工作原理至關重要。以下是對
    的頭像 發表于 08-26 16:23 ?2094次閱讀

    DRAM在計算機中的應用

    DRAM(Dynamic Random Access Memory,動態隨機存取存儲器)在計算機系統扮演著至關重要的角色。它是一種半導體存儲器,用于存儲和快速訪問數據,是計算機主內存
    的頭像 發表于 07-24 17:04 ?1321次閱讀

    Python在AI的應用實例

    Python在人工智能(AI)領域的應用極為廣泛且深入,從基礎的數據處理、模型訓練到高級的應用部署,Python都扮演著至關重要的角色。以下將詳細探討Python在AI
    的頭像 發表于 07-19 17:16 ?1171次閱讀

    機器視覺和計算機視覺有什么區別

    機器視覺和計算機視覺是兩個密切相關但又有所區別的概念。 一、定義 機器視覺 機器視覺,又稱為計算機視覺,是指利用
    的頭像 發表于 07-16 10:23 ?557次閱讀

    計算機視覺與人工智能的關系是什么

    引言 計算機視覺是一門研究如何使計算機能夠理解和解釋視覺信息的學科。它涉及到圖像處理、模式識別、機器學習等多個領域的知識。人工智能則是研究如何使計算
    的頭像 發表于 07-09 09:25 ?684次閱讀

    計算機視覺和機器視覺區別在哪

    計算機視覺和機器視覺是兩個密切相關但又有明顯區別的領域。 一、定義 計算機視覺 計算機視覺是一門研究如何使計算機能夠像人類一樣理解和解釋視覺
    的頭像 發表于 07-09 09:22 ?467次閱讀

    計算機視覺屬于人工智能嗎

    屬于,計算機視覺是人工智能領域的一個重要分支。 引言 計算機視覺是一門研究如何使計算機具有視覺能力的學科,它涉及到圖像處理、模式識別、機器
    的頭像 發表于 07-09 09:11 ?1343次閱讀

    深度學習計算機視覺領域的應用

    隨著人工智能技術的飛速發展,深度學習作為其中的核心技術之一,已經在計算機視覺領域取得了顯著的成果。計算機視覺,作為計算機科學的一個重要分支,
    的頭像 發表于 07-01 11:38 ?844次閱讀

    機器視覺與計算機視覺的區別

    在人工智能和自動化技術的快速發展機器視覺(Machine Vision, MV)和計算機視覺(Computer Vision, CV)作為兩個重要的分支領域,都扮演著至關
    的頭像 發表于 06-06 17:24 ?1362次閱讀

    計算機視覺的主要研究方向

    計算機視覺(Computer Vision, CV)作為人工智能領域的一個重要分支,致力于使計算機能夠像人眼一樣理解和解釋圖像和視頻的信息。隨著深度
    的頭像 發表于 06-06 17:17 ?1003次閱讀

    工業計算機與普通計算機的區別

    在信息化和自動化日益發展的今天,計算機已經成為了我們日常生活和工作不可或缺的工具。然而,在計算機領域中,工業計算機和普通計算機雖然都具備基
    的頭像 發表于 06-06 16:45 ?1474次閱讀

    【量子計算機重構未來 | 閱讀體驗】第二章關鍵知識點

    ,就相當于調整輸出的手指朝向。而這個計算方法,剛好就是量子力學的量子糾纏。而量子糾纏,就有可能將之前計算很麻煩的問題進行簡單計算,從而達到提速的目的。 作者介紹了量子
    發表于 03-06 23:17

    【量子計算機重構未來 | 閱讀體驗】+ 初識量子計算機

    欣喜收到《量子計算機——重構未來》一書,感謝電子發燒友論壇提供了一個讓我了解量子計算機的機會! 自己對電子計算機有點了解,但對量子計算機真是一無所知,只是聽說過量子糾纏、超快的運算速
    發表于 03-05 17:37

    如何使用Python進行圖像識別的自動學習自動訓練?

    圖像識別的自動學習和自動訓練。 首先,讓我們了解一下圖像識別的基本概念。圖像識別是指通過計算機程序識別和理解圖像內容的過程。自動學習和自動訓練是指計算機通過觀察和
    的頭像 發表于 01-12 16:06 ?610次閱讀
    主站蜘蛛池模板: 国产精品成人影院在线观看| 性夜a爽黄爽| 播色屋97超碰在人人| 亚欧洲乱码视频一二三区| 免费网站在线观看国产v片| 国产在线精品亚洲另类| 把腿张开再深点好爽宝贝动态图| 亚洲影院在线播放| 无码射肉在线播放视频| 欧美色图天堂网| 久久精品男人影院| 国产在线精品视频二区| 国产Av男人的天堂精品良久| 99精品视频| 在线观看亚洲免费视频| 亚洲免费观看| 帅小伙和警官同性3p| 欧美熟妇互舔20p| 久久人妻少妇嫩草AV蜜桃99| 国产中文字幕免费观看| 国产大片51精品免费观看| seba51久久精品| 97在线超碰免费视频| 曰本少妇高潮久久久久久| 亚洲精品国产拍在线观看| 午夜福利体检| 他揉捏她两乳不停呻吟口述| 日本xxxxxxxxx老师59| 欧美精品高潮呻吟AV久久| 蜜臀亚洲AV永久无码精品老司机| 久久99精品久久久久久园产越南| 国产色综合久久无码有码 | 91av电影在线观看| 阴茎插入阴道| 伊人情涩网| 一个人在线观看的视频| 亚洲午夜精品A片久久WWW解说| 亚洲人成网77777色在线播放| 亚洲欧美国产旡码专区| 亚洲午夜精品aaa级久久久久| 野花韩国视频中文播放|