面試知識點總結-影象處理/CV/ML/DL到HR面

2020-08-11 19:16:11

作者:拾荒者000
鏈接:https://www.nowcoder.com/discuss/66115
來源:牛客網

有點長,感興趣的看看,不喜勿噴!!!
把一些相關的知識點總結一下。這個比長,感興趣的挑自己相關的那部分看。
都是一些基礎知識,面相關崗位問到的比較多。
(回答時對演算法要有一定的見解,最好不要照書上的背)

(一) 機器學習方面
SVM

1、 支撐平面—和支援向量相交的平面;;;分割平面—支撐平面中間的平面(最優分類平面)

2、 SVM不是定義損失,而是定義支援向量之間的距離à目標函數看PPT13~17頁

3、 正則化參數對支援向量數的影響

LR

1、 LR的形式:h(x)=g(f(x));其中x爲原始數據;f(x)爲線性/非線性迴歸得到的值,也叫判定邊界;g()爲Sigmoid函數,最終h(x)輸出範圍爲(0,1)

LR對樣本分佈敏感。

***LR和樸素貝葉斯(NB)的區別?

LR是loss最佳化求出的,NB是統計跳過loss最優,直接得出權重

NB比LR多了一個條件獨立假設

一個是判別模型(LR),一個是生成模型(NB)

1、 判別模型和生成模型???

2、 機器學習中,LR和SVM有什麼區別?à

兩者都可以處理非線性問題;LR和SVM最初都是針對二分類問題的。

SVM最大化間隔平面、LR極大似然估計;SVM只能輸出類別,不能給出分類概率

兩者loss function不同;LR的可解釋性更強;SVM自帶有約束的正則化

2、LR爲什麼用sigmoid函數,這個函數有什麼優點和缺點?爲什麼不用其他函數?(sigmoid是伯努利分佈的指數族形式)

Logistic Regression 只能用於二分類,而sigmoid對於所有的輸入,得到的輸出接近0或1

Sigmoid存在的問題:梯度消失、其輸出不是關於原點中心對稱的(訓練數據不關於原點對稱時,收斂速度非常慢à輸入中心對稱,得到的輸出中心對稱時,收斂速度會非常快)、計算耗時

Tanh啓用函數存在的問題:梯 度消失、計算耗時,但是其輸出是中心對稱的

ReLU:其輸出不關於原點對稱;反向傳播時,輸入神經元小於0時,會有梯度消失問題;當x=0時,該點梯度不存在(未定義);

ReLu失活(dead RELU)原因:權重初始化不當、初始學習率設定的非常大

Maxout:根據設定的k值,相應的增大了神經元的參數個數

Xavier權重初始化方法:對每個神經元的輸入開根號

3、 SVM原問題和對偶問題關係?

SVM對偶問題的獲得方法:將原問題的目標函數L和約束條件構造拉格朗日函數,再對L中原參數和lambda、miu分別求導,並且三種導數都等於0;再將等於0的三個導數帶入原目標函數中,即可獲得對偶問題的目標函數

關係:原問題的最大值相對於對偶問題的最小值

4、 KKT(Karysh-Kuhn-Tucker)條件有哪些,完整描述?

KKT條件是思考如何把約束優化轉化爲無約束優化à進而求約束條件的極值點

下面 下麪兩個思考題的答案都是 在需要優化的目標爲凸函數(凸優化)的情況下。

問題一:當一個優化問題是凸優化問題時,可以直接用KKT條件求解。

5、 凸優化(可行域爲約束條件組成的區域)

5、 SVM的過程?Boost演算法?

6、 決策樹過擬合哪些方法,前後剪枝

決策樹對訓練屬性有很好的分類能力;但對位置的測試數據未必有好的分類能力,泛化能力弱,即發生過擬合。

防止過擬合的方法:剪枝(把一些相關的屬性歸爲一個大類,減少決策樹的分叉);隨機森林

7、 L1正則爲什麼可以把係數壓縮成0,座標迴歸的具體實現細節?

L1正則化可以實現稀疏(即截斷),使訓練得到的權重爲0;

l1正則會產生稀疏解,即不相關的的特徵對應的權重爲0,就相當於降低了維度。但是l1的求解複雜度要高於l2,並且l1更爲流行

正則化就是對loss進行懲罰(加了正則化項之後,使loss不可能爲0,lambda越大懲罰越大–>lambda較小時,約束小,可能仍存在過擬合;太大時,使loss值集中於正則化的值上)

正則化使用方法:L1/L2/L1+L2

8、 LR在特徵較多時可以進行怎樣的優化?–>L1正則有特徵選擇的作用

如果是離線的話,L1正則可以有稀疏解,batch大點應該也有幫助,線上的解決思路有ftrl,rds,robots,還有阿裡的mlr。當然還可以用gbdt,fm,ffm做一些特性選擇和組合應該也有效果。

9、 機器學習裏面的聚類和分類模型有哪些?

分類:LR、SVM、KNN、決策樹、RandomForest、GBDT

迴歸:non-Linear regression、SVR(支援向量迴歸–>可用線性或高斯核(RBF))、隨機森林

聚類:Kmeans、層次聚類、GMM(高斯混合模型)、譜聚類

10、 聚類演算法(可以作爲監督學習中稀疏特徵的處理):Kmeans、層次聚類、GMM(高斯混合模型)

聚類演算法唯一用到的資訊是樣本和樣本之間的相似度。

評判聚類效果準則:高類間距,低類內距;高類內相似度,低類間相似度。

相似度與距離負相關。

影象之間的距離的度量是對每個畫素操作,最後獲得距離

Kmeans和GMM需要制定類別K

A、Kmeans演算法:對於已有的未標記的樣本,同時給定結果聚類的個數K;目標是把比較接近的樣本歸爲一類,總共得到k個cluster

Kmeans中初始k箇中心點(Kmeans對中心點的選取比較敏感)的選取方法:a、隨機選取k個初始的樣本中心點(b、直接選取k個樣本點),然後計算每個樣本到k個選定的樣本中心點的距離;再比較待聚類樣本到初始樣本點的距離,將待聚類的樣本指定爲距離較近的各個類別(離哪個近,就歸爲哪一類);最後重新計算聚類中心:;重複迭代。

Kmeans收斂狀態:
(1)聚類中心不再變化(2)每個樣本到對應聚類中心的距離之和不再有很大的變化
損失函數àloss function後面的||xn-uk||^2表示採用歐式距離作爲距離度量:

Kmeans可以用於影象分割;

Kmeans的缺點:對初始樣本點的選取敏感;對異常點(如:一個遠離大多數點的孤立的點)的免疫不好;對團狀數據點效果較好,對帶狀效果不好;

Kmeans與Kmeans++初始化的區別:Kmeans初始樣本點的選取是隨機選取的;Kmeans++是選取最遠的k個點作爲初始樣本點

A、 層次聚類

有兩種層次聚類–)bottom-up(從多個類聚成一個類–>每次都是合併最相似的兩個類)、up-bottom(一個類到多個類–>每次都剔除最不相似的類);層次距離是一種樹狀結構

Kmeans與層次聚類對比:

C、高斯混合模型à由單高斯模型線性加權組合

初始參數:樣本點屬於各個高斯函數的概率,以及每個高斯函數的均值和方差(參數都是隨機給定)

GMM求解過程àEM演算法求解

E-step(由已知的均值和方差估算在該參數下的樣本點的分佈)和M-step(由樣本點的分佈再求均值和方差)是EM演算法。

à這和EM求解的過程一樣

Kmeans是硬聚類(每個樣本只能屬於某一類);而GMM對於每個樣本點,都有屬於每個類的概率。

GMM優勢:多個分佈的組合、速度快(EM演算法求解)、最大數據似然概率

GMM劣勢:對初始化值敏感,容易陷入區域性最優、需指定k個高斯分佈;對非凸分佈數據集效果不好。

11、 kmeans的分類過程,用kmeans的數據有什麼樣的分佈(高斯分佈),loss函數是啥?

見問題「9」

12、 邏輯斯特迴歸和線性迴歸的損失函數?

13、 正則化爲什麼能防止過擬合?(https://www.zhihu.com/question/20700829)

過擬合表現在訓練數據上的誤差非常小,而在測試數據上誤差反而增大。其原因一般是模型過於複雜,過分得去擬合數據的噪聲. 正則化則是對模型參數新增先驗,使得模型複雜度較小,對於噪聲的輸入擾動相對較小。

正則化時,相當於是給模型參數w 新增了一個協方差爲1/lambda 的零均值高斯分佈先驗。 對於lambda =0,也就是不新增正則化約束,則相當於參數的高斯先驗分佈有着無窮大的協方差,那麼這個先驗約束則會非常弱,模型爲了擬合所有的訓練數據,w可以變得任意大不穩定。lambda越大,表明先驗的高斯協方差越小,模型約穩定, 相對的variance(方差)也越小。

10、關鍵詞

1、訓練集測試集驗證集劃分方式

https://www.zhihu.com/question/26588665/answer/33490049

2、TPR(Recall)、FPR、ROC 、AUC(與準確率和召回率有關)

http://blog.csdn.net/feiyang2010jin/article/details/50547365

3、座標軸下降法->用來解決loss function對參數不可導時(此時梯度下降演算法不再有效),求取參數更新量的方法

座標軸下降法和梯度下降法具有同樣的思想,都是沿着某個方向不斷迭代,但是梯度下降法是沿着當前點的負梯度方向進行參數更新,而座標軸下降法是沿着座標軸的方向。

http://blog.csdn.net/ymmxz/article/details/69396222

lasso(Least absolute shrinkage and selection operator)

座標軸下降法和最小角迴歸法(http://blog.csdn.net/bbbeoy/article/details/72523540)都是求解Lasso迴歸的方法。

4、批次梯度下降演算法BGD,小批次梯度下降法MBGD,隨機梯度下降演算法SGD的比較

http://blog.csdn.net/yMMxz/article/details/69371926

5、學習率褪火 (衰減)–>沒學習多少次都會將學習率減少(lr/decay_rate)

6、多分類問題轉二分類方法–>組合多個二分類器來實現多分類器,方法如下:

a.一對多法(one-versus-rest,簡稱OVR SVMs)。訓練時依次把某個類別的樣本歸爲一類,其他剩餘的樣本歸爲另一類,這樣k個類別的樣本就構造出了k個SVM。分類時將未知樣本分類爲具有最大分類函數值的那類。

b.一對一法(one-versus-one,簡稱OVO SVMs或者pairwise)。其做法是在任意兩類樣本之間設計一個SVM,因此k個類別的樣本就需要設計k(k-1)/2個SVM。當對一個未知樣本進行分類時,最後得 票最多的類別即爲該未知樣本的類別。

c.層次支援向量機(H-SVMs)。層次分類法首先將所有類別分成兩個子類,再將子類進一步劃分成兩個次級子類,如此回圈,直到得到一個單獨的類別爲止。

說明:LR的多分類也可以用上面的方法。

http://blog.sina.com.cn/s/blog_4af0fab001010ybp.html

http://blog.sina.com.cn/s/blog_4c98b96001009b8d.html

1、 跳出區域性極小值方法

–>優化方法,如momentum updata、Adam等;調整學習率

4、顯著性檢驗

5、線性迴歸、廣義線性迴歸

7、最小二乘誤差及其概率解釋

9、LDA(二類、多類)

11、類別不平衡解決方法:欠採樣、過採樣、閾值移動

12、模型融合方法:bagging、隨機森林、ADABOOST、 Gradient Boosting Tree

前面兩種是綜合多個模型的結果;後面兩個是重複訓練

Bagging–>模型融合(隨機森林也屬於模型融合);有兩種方法(bagging對樸素貝葉斯沒什麼用,因爲NB太穩定,提升不大)

ADABOOST(boosting一類的演算法)的步驟–>重複迭代和訓練;每次分配給錯的樣本更高的權重;最簡單的分類器(如:線性分類器的二分類)疊加

ADABOOST分類過程詳細解釋如下:先用一個簡單的分類器將樣本分成兩類;爲分錯的樣本分配更高的權重(初始權重設爲1/N即可,N爲樣本數);重複上次兩個過程(再次分類,併爲錯誤的樣本設定更高的權重);最後將所有樣本數據正確分類後,將各個分類器疊加。

Gradient Boosting Tree:和Adaboost的思路類似,解決迴歸問題。

14、 決策樹、隨機森林、GBDT、XGBOOST

A、決策樹(有監督學習):

建立決策樹的關鍵,即在當前狀態下選擇哪個屬性作爲分類依據。根據不同的目標函數,建立決策樹主要有一下三種方法:ID3、C4.5、CART

B、Bootstraping:不需要外界幫助,僅依靠自身力量讓自己變得更好。

C、隨機森林(bagging+決策樹):

Bootstrap採樣:有放回的重複抽樣

D、Adaboost:

教學第11節 決策樹隨機森林……pdf –p37

E、 GBDT—梯度下降決策樹(有監督學習)

15、 熵 資訊增益(ID3演算法)、資訊增益率(C4.5演算法)、基尼係數(CART)

教學第11節 決策樹隨機森林……pdf -p10

16、 投票機制 機製

1)一票否決(一致表決)、2)少數服從多數、3)有效多數(加權)

16、數值優化理論:梯度下降、牛頓、共軛梯度

牛頓法(dk爲更新量)–>引入了二階偏導(Hessian矩陣)–>求解無約束優化(迭代的初始值一般是隨機選取的)

缺點:不能保證Hessian矩陣(二階偏導組成的矩陣)一定可逆

17、SVM、SVR、軟間隔SVM、SMO

18、SVM核函數

核函數主要是將線性不可分的數據對映到高位空間再進行分類

核函數的種類:

高斯核是用的最多的核函數à對訓練數據分類效果最好

高斯核的缺點:容易過擬合,需要更多的樣本、泛化能力弱

19、距離方法:閔科夫斯基 、VDM、馬氏距離

20、K-means、KNN、LVQ、DBSCAN、譜聚類

21、降維方法:LDA、PCA、SVD

22、特徵選擇方法:總體分爲過濾型、包裹型、嵌入型(à基於模型的;如:正則化)

Relief、LVW、正則化(L1/L2)

特徵選擇的原因:特徵存在冗餘(特徵相關度太高)、摻雜了噪聲(特徵對預測結果有負影響)

L1正則化是截斷效應(實現稀疏,把不相關的特徵的係數變成0);L2正則化是縮放效應,使最後得到的參數很小

25、交叉熵?KL散度(也叫KL距離)?

25、最大熵模型、EM(Expectation Maximization)演算法

最大熵模型的求解可以轉化爲對偶問題的極大化;

26、特徵–>數據中抽取出來的對結果預測有用的資訊

特徵工程–>使用專業背景知識和技巧處理數據,使得特徵能在機器學習演算法上發揮很好的作用的過程。
1
27、交叉驗證

K折交叉驗證(K-flod cross validation)

http://www.cnblogs.com/boat-lee/p/5503036.html

將訓練集分成K份;依次將第i(i=k,…,1)折作爲交叉驗證集,其餘k-1折(除第i折外)作爲測試集;總共進行k次,每進行完一次訓練,都用test data去測試,得到k個準確率;最後取k個準確率的均值作爲最後結果。

28、過擬合和欠擬合

欠擬合(under fitting):參數過少,不足以表達數據的特徵

過擬合(over fitting):參數過多,過渡擬合數據,泛化能力差(訓練時的準確率很好,但測試的時候就很差)

欠擬合解決方法:找更多的特徵;減小正則化係數

(二)深度學習方面
1、MLP的BP過程?delta的意義?每一層節點的殘差?

2、max pool層怎麼做的?

3、caffe架構?caffe如何構建網路?

4、去折積過程(轉置折積)?http://blog.csdn.net/fate_fjh/article/details/52882134

5、單個神經元是否線性可分(模式識別的概念,是否能用用線性函數將樣本分類)?

是否線性可分是對於樣本集的;線性可分是數據集合的性質,和分類器沒啥關係。

可以通過線性函數分類的即爲線性可分

6、深度學習模型的發展?深度學習的評價標準?

7、強化學習應用場景和方法?adaboost和cascade adaboost?損失函數有哪些?分類迴歸聚類的區別與聯繫?目標檢測的三種方法?

8、目標檢測常用的網路,RCNN, SPP, Fast RCNN, Faster RCNN的區別?

9、隨機梯度下降,標準梯度?softmax公式?資訊熵公式?

10、SVM和softmax的區別?

Svm具有附加穩定性,當樣例滿足邊界條件時,該樣例不會影響損失函數;而softmax將考慮所有的樣例

11、訓練時,mini-batch與GPU的記憶體匹配–>訓練網路時的mini batch是由GPU的記憶體決定的。

12、正則化:正則化表現的是對高維度W的懲罰力度,當正則化係數(lambda)很大時,使w變的非常小,最終的結果是函數變得非常平滑。正則化係數(lambda)越小,擬合程度越高,效果越好。

13、batch normalization中gamma和beta初始化爲1和0,然後在訓練中優化他們

BN可以減少dropout(可以不要dropout)

14、當訓練到最後,loss值很大,但精度在上升?–>說明loss變化很小,需要增大學習率

梯度爆炸(loss發散,出現nan)–>學習率很大,需要減小學習率

15、如果loss開始一直不變,但是從某點開始下降的原因à因爲初始值選定的不好,錯誤的初始值會讓梯度一開始接近0。

16、優化策略的比較:

http://www.cnblogs.com/denny402/p/5074212.html

SGD–>Momentum updata–>Nesterov Momentum updata–>AdaGrad update–> RMSProp update–>Adam update

以上都是一階優化方法,對於二階優化方法(BFGS和L-BFGS),二階優化方法不需要學習率這個參數,可以直接對目標進行優化。

SGD:根據梯度直接更新w

Momentum updata:不是通過計算得到的梯度直接更新w,而是增加一個變數V(定義爲速度),改變了和梯度直接相關,再用V更新w

Nesterov Momentum updata:更新方式

AdaGrad update:每個參數自適應學習速率的方法(因爲參數空間的每一維都有自己的學習速率,它會根據梯度的規模的大小動態變化)

長時間訓練時,AdaGrad演算法會發生什麼?–>根據更新公式,不斷有正數加到cache中,更新步長會逐漸衰減到0,最後完全停止學習。

1e-7:平滑因子,防止除數變成0

RMSProp update:解決了AdaGrad中會停止更新的問題

Adam update:

adagrad記錄的是梯度的二階矩,並按指數和形式表示

Momentum的作用:穩定梯度的方向

17、模型整合

先單獨訓練多個不同的模型;在訓練時,將每個模型的結果取平均值即可。–>可提升精度

缺點是必須單獨訓練不同的模型

18、Cross entropy loss 和sigmod Cross entropy loss的區別?

http://blog.csdn.net/u012235274/article/details/51361290

看博文裡寫的就沒啥區別

SmoothL1Loss

優勢:smoothL1Loss在接近0的時候,看起來像二次函數

SoftMaxWithLoss

19、沒有隱藏層的神經網路是線性的,只能處理線性可分的問題(線性可分問題從二維角度看,即分界線是一條直線,多維就是存線上性超平面將其分類)。

20、折積神經網路中,在沒有zero-padding的情況下,當輸入爲77,filter爲33,stride爲3是,這裏的stride是不允許這樣設定的,因爲這樣的話輸出就是2.333*2.333(不是整數),所以zero-padding避免了這種情況的發生

Zero-padding的另一種作者用,就是避免影象在折積神經網路中向前傳播時,影象提取出來的特徵越來越小,zero-padding可以保證影象的尺寸。

21、定位和檢測的區別:

區別在於要找的目標的數量;

對於定位,影象中只有一個或一種物件,用框標出物件的位置

對於檢測,影象中有多個目標或多種物件。

23、數據不足時:

數據增強、transfer learning(fine-tuning:根據數據集的大小,訓練網路的最後一層或者最後幾層)、修改網路

Fine-tuning:固定網路,即爲學習率爲0、需要訓練的層的學習率比較高(原來訓練好的網路的學習率的十分之一)、當預訓練的層(中間層)需要改變時,學習率很小(如原學習率的一百分之一)

24、goolenet和resnet中用到的結構(瓶頸結構 bottlenecks:輸入輸出相同)

1x1的折積層相當於全連線層–>遍歷所有畫素

3x3的折積可以替換成1x3和3x1的不對稱折積(inception v3)–>減少參數

25、CNN中 折積的實現

傅裡葉變換可以用於大折積核的運算

im2col(主要的):

caffe和torch不支援使用16位元計算。

26、WindowDataLayer(視窗數據),用於檢測,可以讀取hdf5數據。

27、Caffe中的交叉驗證?

定義兩個prototxt檔案(訓練階段和測試階段),train_val.prototxt和deploy.prototxt;後者用於測試集中,測試階段的train_val.prototxt用於驗證。

28、其他框架?

Torch–>C和Lua語言寫的,Torch中主要的是Tensors類

TensorFlow–>pip安裝,TensorBoard爲視覺化工具 ,支援多GPU,支援分佈式訓練(多機),支援RNN

Theano、MxNet、

29、語意分割(Semantic Segmentation)和範例分割(Instance Segmentation)

語意分割–>操作畫素,標記每個畫素所屬的標籤à不關心具體的類,同一類目標標記爲相同的畫素

範例分割à 輸出類別同時標記畫素(同時檢測並分割)–>關心目標的類,不同目標標記爲不同的畫素(同一類中的目標也標記爲不同 的畫素)

分割時使用全折積網路(以filter爲1*1的折積層替換fc層,操作每個畫素)可以得到所有畫素的標籤,而不用先將影象分成許多小塊,再通過折積爲塊 的中心畫素分類(這樣就很耗時)

30、反捲積(折積轉置)

31、Spatial Transformer Networks(空間變換網路)

32、無監督學習

聚類等、PCA(線性的)

自動編碼器(Auto encoder)、Generative Adversarial Networks(GAN)

(三)影象方面
1、opencv遍歷畫素的方式?

2、LBP原理?

3、HOG特徵計算過程,還有介紹一個應用HOG特徵的應用?

4、opencv裏面mat有哪些建構函式?

5、如何將buffer型別轉化爲mat型別?

6、opencv如何讀取png格式的圖片?(我貌似記得opencv不能讀取png格式的圖片,好像每種格式圖片的表頭不一樣,需要轉化,給他說了半天他,他也沒明白)

7、opencv如何讀取記憶體圖片?

8、opencv裏面有哪些庫?

9、用過opencv裏面哪些函數?(我順帶回答了一下canny,HR又問opencv裏面有c-a-n-n-y有這幾個字母的函數嗎,尷尬。。。又問我如何自己寫canny邊緣檢測演算法)

10、opencv裏面爲啥是bgr儲存圖片而不是人們常聽的rgb?

12、你說opencv裏面的HOG+SVM效果很差?他就直接來了句爲啥很差?差了就不改了?差了就要換其他方法?、

13、講講HOG特徵?他在dpm裏面怎麼設計的,你改過嗎?HOG能檢測邊緣嗎?裏面的核函數是啥?那hog檢測邊緣和canny有啥區別?

13、如何求一張圖片的均值?(考慮了溢位和分塊求解,貌似不滿意。。。回頭看看積分圖裏面如何解決溢位的。)

14、如何寫程式將影象放大縮小?(我回答的插值,不太對。。。比如放大兩倍可以插值,那放大1.1倍呢,)–>放大1.1倍也可以插值

15、如何遍歷一遍求一張圖片的方差?(回答的是採用積分圖,並讓我推導這樣爲啥可行。這個問題以前幫同學解決過。。。)

(四)程式設計方面(C++/Python)
1、 全排列

2、 矩陣求最長連續遞增的路徑長度?à

Longest Increasing Path in a Matrix https://leetcode.com/problems/longest-increasing-path-in-a-matrix/discuss/
3、vector和list的區別?

4、c裏面有哪些記憶體申請方法?

5、虛擬函式和純虛擬函式的區別?

6、過載、覆蓋、重寫的區別?

7、用過C++11嗎?用過裏面的哪些?

8、有哪些型別轉換函數?以及用在哪些場景?

9、用過GCC嗎?會linux嗎?

10、堆和棧的區別?

11、Python中定義類的私有變數?在變數前面加雙下劃線「__」,如:__x,則爲私有變數

11、請描述指針陣列和陣列指針的區別
指針陣列:array of pointers,即用於儲存指針的陣列,也就是陣列元素都是指針

陣列指針:a pointer to an array,即指向陣列的指針

還要注意的是他們用法的區別,下面 下麪舉例說明。

int* a[4] 指針陣列

表示:陣列a中的元素都爲int型指針

元素表示:*a[i] (a[i])是一樣的,因爲[]優先順序高於

int (*a)[4] 陣列指針

     表示:指向陣列a的指針
     元素表示:(*a)[i]  

1
2
(五)開放性問題

1、最後問面試官的問題

(1)我以後的面試要注意哪些問題,提點建議?或爲了更好地勝任這個崗位,我還需要補充哪些技能? 入職後是否有產品培訓和技能培訓?

(2)當感覺還可以時,就問公司培訓制度,晉升機制 機製,以及自己來了應該做什麼,當感覺沒戲時,就問,你給我一些關於職業的建議吧,以及怎麼提升自己

3、 HR面試(自己總結的)

(1) 期望薪資

(2) 你理想的工作是什麼樣的?

(3) 關於你以後的工作打算,你有什麼想法?

(4) 職業規劃

(5) 做專案時遇到的困難及解決方法?

(6)做科研辛苦嗎?

(6) 對公司的看法?爲什麼應聘我們公司?

(7) 你在同齡人中處於什麼檔次 和大牛的差距在哪?

(8) 你跟同齡人相比有什麼優勢?

(9) 你除了我們公司,還投了哪些公司?

說幾個

(10) BAT之外,你最最想去的是哪家公司,爲什麼?

(11) 如果我們給你發offer,你還會繼續秋招麼?

(12) 【跨專業】本科+研究生在本專業學了多年,爲什麼沒在本行業求職?

(13) 【家離企業所在地較遠】爲什麼想來xx地方工作,父母支援麼?

(14) 【物件】如果物件和你在意向工作地發生分歧,你怎麼處理?

(15) 優缺點?

(16) 介紹你一次最失敗的一次經歷?

(17) 介紹你一次最成功的一次經歷?

(18) 這份工作你有想過會面對哪些困難嗎?

(19) 如果你發現上司做錯了,你將怎麼辦?

(19)你覺得大學生活使你收穫了什麼?

(20)你對加班的看法?

(21)當公司給出的待遇偏低不足以吸引到優秀人才的時候,你該怎麼去招聘?
1
2
3
4
5
這些知識點都是我自己總結的,包括HR面的問題。
其中有的問題給出了回答,如果有誤請指正,謝謝!
感興趣的看看,不喜勿噴!!!

轉載文章地址:https://www.nowcoder.com/discuss/66115