摘 要:邏輯回歸(LR)作為監(jiān)督學習的二元分類廣義線性分類器,在處理線性數據方面表現出結構簡單、解釋性強,擬合效果好的特點。然而,當面對高維、不確定性和線性不可分數據時,邏輯回歸的分類效果受到限制。針對邏輯回歸的固有缺陷,引入粒計算理論,借助?;膬?yōu)勢提出一種新型的邏輯回歸模型:旋轉粒邏輯回歸。通過引入旋轉?;碚摚谔卣鲀蓛山M合形成的平面坐標系上旋轉不同角度,構建旋轉粒子,多平面坐標系上?;瘶嬙煨D粒向量。進一步定義粒的大小、度量和運算規(guī)則,提出旋轉粒邏輯回歸的損失函數。通過求解損失函數,得到旋轉粒邏輯回歸的優(yōu)化解。最后,采用多個UCI數據集進行實驗,從多個評價指標比較的結果表明旋轉粒邏輯回歸模型的有效性。
關鍵詞:邏輯回歸; 粒計算; 向量旋轉; 粒邏輯回歸; 損失函數
中圖分類號:TP181 文獻標志碼:A
文章編號:1001-3695(2024)08-021-2398-06
doi:10.19734/j.issn.1001-3695.2023.11.0578
Logistic regression algorithm based on rotating granulation
Kong Liru1, Chen Yuming1, Fu Xingyu1, Jiang Hailiang1, Xu Jincheng2
(1.College of Computer & Information Engineering, Xiamen University of Technology, Xiamen Fujian 361024, China; 2.Xiamen Wanyin Intelligent Technology Co., Ltd., Xiamen Fujian 361024, China)
Abstract:LR serves as a generalized linear classifier for binary classification in supervised learning, exhibiting characteristics of simplicity in structure, strong interpretability, and effective fitting when dealing with linear data. However, its classification performance becomes limited when confronted with high-dimensional, uncertain, and linearly inseparable data. To address the inherent limitations of logistic regression, this paper introduced the theory of granular computing and proposed a novel logistic regression model called rotating granular logistic regression(RGLR). This paper introduced the theory of rotating granulation, where different angles of rotation were applied to pairs of features forming a plane coordinate system. This process constructed rotating granules by rotating pairs of features at various angles on the plane coordinate system, and granulated to form rotating granule vectors on multiple plane coordinate systems. This paper further defined the size, measurement, and operational rules of granules, and proposed a loss function for rotating granular logistic regression. The optimized solution of the rotating granular logistic regression was obtained by solving the value of the loss function. Finally, experiments are conducted using multiple UCI datasets, and the results compared across various evaluation metrics, indicate the effectiveness of the rotating granular logistic regression model.
Key words:logistic regression; granular computing; rotating vector; rotating granular logistic regression; loss functions
0 引言
模糊集和模糊計算概念由美國學者Zadeh[1]在1965年提出,模糊集通過隸屬函數表示元素和集合之間的關系。1996年Lin等人[2]首次提出粒計算理論。粒計算強調事物多層次、多粒度表示,使用新的表示方法對復雜知識做新表示,處理不確定性數據。加拿大院士Pedrycz提出多種粒分類[3]和粒聚類算法[4]。1997年,Zadeh[5]指出,模糊邏輯和人類推理能力是相似的,模糊信息?;谌祟愅评矸椒ㄈチ;畔?。除了模糊信息?;€有很多?;椒ǎ绱植诩;完幱凹;N墨I[6]總結并討論不同條件下的?;椒ā_M入21世紀后,國內越來越多的學者投身到粒計算的研究中。Lin等人[7,8]成功將粒計算應用到知識發(fā)現和數據挖掘領域。文獻[9,10]通過定義鄰域關系構建鄰域?;N墨I[11~13]基于粒計算理論闡述不確定性,并將信息熵引入粒計算領域。Yu等人[14]提出多粒度融合學習來學習不同粒度模式下的決策。2014年,Qian等人[15]設計出一種并行屬性近似算法,以提高屬性近似問題的粒計算操作效率。文獻[16]提出基于概念格的粒度結構,并應用于概念分析中。Chen等人[17]從集合和向量的角度定義了粒的結構,并進一步研究粒的不確定性和距離度量。Li等人[18]將提升算法與粒KNN算法集成,進一步提高KNN算法的性能。粒計算是一種從人類認知的角度定義的算術模型,與人類的邏輯、認知和記憶高度相似,粒計算能夠分析與處理復雜數據,將復雜的對象細粒度分解而求解問題,并廣泛應用于機器學習領域[19~23]。
邏輯回歸是一種數學模型,可以估計屬于某一類的概率。在數據科學中,邏輯回歸是一種分類方法[24]。許多研究者在工程領域使用了回歸模型,并開展了出色的研究工作,如健康科學[25]、文本挖掘[26]和圖像分析[27]。然而,傳統的邏輯回歸方法只能從當前的樣本特征中學習。但數據集中多個獨立樣本的特征之間仍存在一些聯系,這被傳統的邏輯回歸方法所忽視。當數據維度過高時,邏輯回歸分類器可能會出現退化現象。?;幚砜梢酝ㄟ^引入粒計算使分類過程具有結構化和層次化,從而提高了數據分類[28]的準確性和魯棒性。
本文利用粒計算處理模糊、不確定性數據的優(yōu)勢以及邏輯回歸在處理二元分類問題時具有良好性能的特點將粒計算和邏輯回歸相結合,兩者結合有助于更全面地處理復雜數據,提出一種旋轉粒邏輯回歸方法。該方法基于粒計算理論,通過建立特征點平面坐標系,在特征點平面坐標系上旋轉多個角度對樣本進行旋轉?;纬尚D粒子,多平面坐標系上的粒化構造成旋轉粒向量。進一步定義粒的大小、度量和運算規(guī)則,提出粒邏輯回歸的損失函數。將邏輯回歸的思想和粒計算理論相結合提出粒邏輯回歸算法。使用UCI數據集進行實驗測試表明,本文算法得到的分類效果優(yōu)于傳統邏輯回歸算法,為分類算法探索一條新的途徑。
1 粒向量與粒化
首先將特征歸一化并且將樣本?;啥鄠€粒子。通過定義粒和粒度計算,將?;蟮牧W虞斎氲叫D粒邏輯回歸模型中,輸出樣本預測標簽,具體步驟介紹如下。
1.1 ?;?/p>
粒計算是處理不確定性信息的有效工具。設C={U,F,{l}}為一分類系統,其中U={x1,x2,…,xn}為樣本集合,F={f1,f2,…,fh}為樣本特征集合,{l}為樣本的類別標簽;給定單樣本x∈U,對于單特征f∈F,v(x,f)∈[0,1]表示樣本x在特征f上歸一化后的值;該樣本x對應的標簽值為y∈{0,1}。
定義1 設h維特征集為F={f1,f2,…,fh},任意選取兩個特征fa,fb∈C進行組合,形成特征點平面坐標系〈fa,fb〉或〈fb,fa〉,其中第一個元素為橫坐標,第二個元素為縱坐標。以下本文只考慮這種情況〈fa,fb〉,其中fa為橫坐標,fb為縱坐標。
對于給定樣本x∈U,其在特征點平面坐標系〈fa,fb〉中的值為〈v(x,fa),v(x,fb)〉,簡寫為〈va,vb〉。h維特征集F={f1,f2,…,fh}中,所有特征兩兩組合,則形成了特征點平面坐標系集合,含有h×(h-1)/2個平面坐標系。對于給定樣本x∈U,所有特征值兩兩組合,則形成了h×(h-1)/2個平面特征點值。
定義2 設特征點平面坐標系為〈fa,fb〉,對于平面中任意點v=(va,vb)T,按照逆時針旋轉θ角度,形成新的特征點為v′=Rθ*v,其中Rθ=cos θ-sin θsin θcos θ。
定義3 給定數據集C={U,F,{l}},對于任一樣本x∈U,其在特征點平面坐標系〈fa,fb〉的值為v=(va,vb)T,則x在該平面坐標系上進行旋轉?;?,形成的旋轉粒子定義為
gv(x)={gv(x)jθ}kj=1={rj}kj=1={r1,r2,…,rk}(1)
其中:gv(x)是一個集合;rj是集合中的一個元素,rj=Rjθ*v表示樣本x在特征點平面坐標系〈fa,fb〉上旋轉jθ角度后的點。定義gv(x)為旋轉粒子,gv(x)j為粒子gv(x)的第j個粒核。粒子由粒核組成,是一個有序集合,其元素是平面上的點;因此,旋轉粒子也是點的有序集合。
樣本x在決策特征l上進行擴展粒化,形成標簽粒子,定義為
gl(x)={gl(x)j}kj={l}kj=1(2)
其中:l為樣本x的標簽值。在邏輯回歸分類器中,標簽值為0和1。
定義4 設C={U,F,{l}}為數據集,對于任一樣本x∈U,從特征集F中任選特征組合成m個平面坐標系,構成集合為P={v1,v2,…,vm},其中va=〈fax,fay〉,則x在特征點平面坐標系集P上的旋轉粒向量定義為
GP(x)=(gv1(x),gv2(x),…,gvm(x))T(3)
其中:gvm(x)是樣本x在特征點平面坐標系vm上的旋轉粒子。因va=〈fax,fay〉,所以旋轉粒向量可表示為
GP(x)=(gf1x(x),gf1y(x),gf2x(x),gf2y(x),…,gfmx(x),gfmy(x))T(4)
為方便計算,則旋轉粒向量表示為
G(x)=(g1(x),g2(x),…,g2m(x))T(5)
粒向量G(x)由粒子組成,而粒子是一個有序集合的形式。因此,粒向量的元素是有序的集合,與傳統向量不一樣,傳統向量的元素是一個實數。
例1 數據集C={U,F,{l}}如表1所示,U={x1,x2,x3,x4}為樣本集合,F={fa,fb,fc}為特征集合,l為類別標簽,設旋轉角度θ為30°,旋轉次數為三次。數據集如表1所示。
特征集F={fa,fb,fc},若選取兩個特征fa,fb∈F進行組合,形成特征點平面坐標系〈fa,fb〉或〈fb,fa〉,其中第一個元素為橫坐標,第二個元素為縱坐標。以下本文只考慮〈fa,fb〉這種情況,其中fa為橫坐標,fb為縱坐標。
對于給定樣本x1∈U,其在特征點平面坐標系〈fa,fb〉中的值為〈v(x1,fa),v(x1,fb)〉,簡寫為〈va,vb〉。三維特征集F={fa,fb,fc}中,所有特征兩兩組合,則形成特征點平面坐標系集合,含有三個平面坐標系。同時形成三個平面特征點值。樣本特征點集合如表2所示。
對于平面中任意點v=(va,vb)T,按照逆時針旋轉θ=30°,形成新的特征點為:v′=Rθ*v,其中Rθ=cos30°-sin30°sin30°cos30°。則x1在該平面坐標系上進行三次旋轉粒化,形成的旋轉粒子為gv(x1)={gv(x1)jθ}3j=1={rj}3j=1={r1,r2,r3},x1在各特征點平面坐標系形成的旋轉粒子集合如表3所示。
表3中每一行粒核r1、r2、r3組合形成x1在該平面上的旋轉粒子gv(x1)。則x1在特征點平面坐標系集P上的所有粒子組合形成的旋轉粒向量為
GP(x)=(gv1(x),gv2(x),gv3(x))T
1.2 粒子的運算
定義5 設g={sj}kj=1,f={tj}kj=1為兩個粒子,則兩個粒子的加、減、乘、除運算定義為
g+f={sj+tj}kj=1(6)
g-f={sj-tj}kj=1(7)
g×f={sj×tj}kj=1(8)
g/f={sj/tj}kj=1(9)
定義6 設粒向量為G(xi)=(g1(xi),g2(xi),…,gm(xi))T,G(xk)=(g1(xk),g2(xk),…,gm(xk))T,則這兩個粒向量的點乘為
G(xi)·G(xk)=G(xi)TG(xk)=g1(xi)*g1(xk)+
g2(xi)*g2(xk)+…+gm(xi)*gm(xk)(10)
兩個粒向量的點乘結果為一個粒子。因此,本文可以通過構造一個權值粒向量,讓樣本的粒向量與權值粒向量進行點乘運算,其結果也為一個粒子。
定義7 設粒子為gc(x)={rj}kj=1,其大小定義為
q(gc(x))=∑kj=1rj(11)
若q(gc(x))>0,則粒子大小為正;反之,粒子大小為負。
粒邏輯回歸分類模型的學習訓練過程就是優(yōu)化確定權值粒向量與偏置粒子的值,預測樣本類別則通過學習得到的粒邏輯回歸模型來分類。對于輸入的樣本進行?;土_壿嫽貧w模型計算后,輸出粒子,通過度量粒子的大小確定樣本的類別。輸出結果為正,則判定為正例類別;輸出結果為負,則判定為負例類別。
定義8 設m維粒向量為G(xi)=(g1(xi),g2(xi),…,gm(xi))T,則粒向量的范粒子定義為
a)粒向量-1范粒子。
‖G(xi)‖1=∑mj=1gj(xi)(12)
b)粒向量-2范粒子。
‖G(xi)‖2=∑mj=1gj(xi)*gj(xi)=G(xi)·G(xi)(13)
c)粒向量-p范粒子。
‖G(xi)‖p=(∑mj=2gpj(xi))1p(14)
粒向量范粒子運算的結果是粒子。范粒子運算提供了一種從粒向量轉換為粒的方法。
2 粒邏輯回歸算法
為了構建旋轉粒邏輯回歸系統,本文首先定義了旋轉粒邏輯函數。算法流程如圖1所示。
定義9 設C={U,F,{l}},對于樣本xi∈U,粒子為g(x)={rj}kj=1,粒邏輯函數表示為
f(g(x))=11+e-rjkj=1(15)
粒邏輯函數的導數為
f′(g(x))=ddrjf(rj)kj=1=11+e-rj1-11+e-rjkj=1(16)
邏輯回歸是一個線性分類模型。為了得到粒邏輯回歸模型,需要導入粒線性方程。文獻[21,22]定義了粒狀線性回歸模型。
定義10 設C={U,F,{l}},對于樣本xi∈U,粒向量為G(xi)=(g1(xi),g2(xi),…,gm(xi))T,權值粒向量W=(w1,w2,…,wm,b)T,粒回歸方程定義為
Reg(x)=W·G(x)=w1×g2(x)+w2×g2(x)+…+wm×gm(x)+1×b(17)
將粒線性回歸應用于粒度邏輯函數,得到粒度邏輯回歸模型。
定義11 設C={U,F,{l}},粒向量為G(x),權值粒向量W,粒邏輯回歸如下所示。
fRGLR(x)=f(Reg(x))=11+e-W·G(x)kj=1(18)
旋轉粒邏輯回歸是關于粒子的函數,通過樣本條件粒向量與權值粒向量的內積計算,結果為決策粒子。同時,標簽值進行?;笮纬蓸撕灹W?。因此,條件粒子與決策粒子進行比較,將其差異按照梯度方向回傳修正權值粒核向量,從而形成旋轉粒邏輯回歸分類器。
2.1 粒邏輯回歸損失函數
粒邏輯回歸模型中,輸入是一個樣本的旋轉粒向量,輸出是一個決策粒子,決策粒子可以與構成粒損失函數的標簽粒子進行比較。為了優(yōu)化粒邏輯回歸模型的參數,需要定義其損失函數。
定義12 給定訓練數據集T={(x1,y1),(x2,y2),…,(xn,yn)},其中xi為h維特征向量,xi∈XRh,yi∈{0,1},i=1,2,…,n。訓練集T?;癁镚T={(G(x1),g(y1)),(G(x2),g(y2)),…,(G(xn),g(yn))},其中G(xi)=(g1(xi),g2(xi),…,gh(xi))T為粒向量,g(yi)為標簽粒子。粒邏輯回歸的損失函數定義為
L(g(yi),fRGLR(G(xi)))=-1n
∑ni=1[g(yi)log(fRGLR(G(xi)))+(1-g(yi))log(1-fRGLR(G(xi)))](19)
其中:1為1-粒子。
2.2 粒邏輯回歸算法
算法1 旋轉粒邏輯回歸學習算法
輸入:訓練集T={(x1,y1),(x2,y2),…,(xn,yn)},其中xi為h維特征向量,其中xi∈XRh;yi是l-維標簽向量,yi∈YRl,i=1,2,…,n;學習率為η(0<η≤1)。
輸出:W,b。
a)訓練集T旋轉?;癁?/p>
GT={(G(x1),g(y1)),(G(x2),g(y2)),…,(G(xn),g(yn))};
b)構建旋轉粒邏輯回歸模型,并隨機初始化權值粒向量W=(w1,w2,…,wm)T和偏置粒子b;
c)將粒向量輸入旋轉粒邏輯回歸模型,得到決策粒子;
d)計算決策粒子和標簽粒子的損失函數L,根據梯度方向,反向傳播修正權重粒向量和偏置粒子;
e)步驟c)d)循環(huán)多次,直至損失函數收斂或迭代達到最大次數;
f)輸出權值粒向量W=(w1,w2,…,wm)T和偏置粒子b。
3 實驗分析
實驗采用BUPA、heart disease、ionosphere、Pima、Haberman、breast cancer、blood-transfusion七個UCI數據集來驗證本文算法的有效性,具體描述如表4所示。
由于每個數據集的特征值域是不同的,所以要對粒化后的粒子采用最大最小值歸一化,將每個特征的值域轉為[0,1],最大最小值歸一化公式為
Xnorm=X-XminXmax-Xmin(20)
使用accurancy、F1-score、ROC曲線、AUC四個指標作為評估指標,其中,準確率,F1-score表達式如下:
accuracy=TP+TNTP+TN+FP+FN(21)
precision(P)=TPTP+FP(22)
recall(R)=TPTP+FN(23)
F1=2×P×RP+R(24)
為了測試算法的有效性,分別采用傳統邏輯回歸模型、基于旋轉?;倪壿嫽貧w模型在不同數據集上進行旋轉,對不同旋轉次數的準確率做對比。同時采用十折交叉驗證進行實驗,將每個數據集隨機分成10份,其中一份為測試集,其余為訓練集。再選另一份為測試集,其余為訓練集,共測試10次,分類精度為10次的平均值。
3.1 旋轉次數的影響
旋轉粒化過程需要設置旋轉角度與旋轉次數的參數,實驗中設置?;嵌圈葹?0°,旋轉次數為1~12。本節(jié)實驗主要測試旋轉粒化次數參數的影響。七個UCI數據集的結果取六個(包括Pima、ionosphere、Haberman、breast cancer、BUPA、blood-transfusion),實驗結果如圖2所示。
由圖2可知,旋轉粒邏輯回歸(RGLR)算法的accuracy在Pima、ionosphere、breast cancer、BUPA數據集上始終高于經典邏輯回歸算法(LR)。在Pima數據集中,RGLR的準確率始終高于LR,準確率之差為0.003 9~0.005 20。在ionosphere數據集中,當旋轉次數達到2時,RGLR的準確率達到峰值0.894 5且始終高于LR算法。在Haberman數據集中,RGLR的準確率曲線隨準確率先上升后保持平穩(wěn),當旋轉次數為1時,RGLR的準確率為0.728 9,低于LR,但在旋轉2~12次時,RGLR的準確率始終高于LR,準確率之差為0.009 8~0.013 2。在breast cancer數據集中,RGLR的準確率曲線始終高于LR,且在旋轉次數為2時達到峰值0.758 3,準確率之差為0.054 5~0.088 6。在BUPA數據集中,RGLR的準確率曲線始終高于LR,準確率之差為0.086 5~0.098 4。在blood-transfusion數據集中,當旋轉次數為2時,RGLR的準確率低于LR,在其他旋轉次數時,RGLR的準確率比LR略高或相等。
從旋轉次數上看,對于不同數據分布的數據集、不同的旋轉次數都會對最終分類性能造成影響,且并非旋轉次數越多,分類性能越好。從總體上看,除了blood-transfusion數據集,RGLR算法的accuracy均高于LR,均能找到合適的旋轉次數使得accuracy達到最高值,超過經典LR算法。與LR算法相比,RGLR算法在算法進行之前就預先對數據進行?;?,利用旋轉粒向量使得算法對特征信息少的數據分類性能提高。
3.2 分類算法比較
經典的機器學習模型有K近鄰、決策樹、SVM等。本文采用準確率、F1-score來評價預測算法的性能。對比了LR、K近鄰、決策樹、SVM以及基于粒向量的K近鄰分類器[29],其中基于粒向量的K近鄰分類算法包括基于相對粒向量距離的K近鄰分類器(VKNGR)和基于絕對粒向量距離的K近鄰分類器(VKNGA)。數據集中使用十次交叉驗證求均值的方法得出均值和方差。各分類算法準確率如表5所示,各分類算法F1-score比較如表6所示,結果保留四位小數。
從實驗中可以得出,RGLR算法在BUPA、Pima、Haberman、breast cancer、blood-transfusion數據集上要明顯優(yōu)于其他算法。除在heart disease、ionosphere數據集上準確率相對較低,在其他數據集上與其他算法相比,大部分情況準確率更高。
由表5可知,當使用accuracy作為性能評估指標時,在BUPA、Pima、Haberman和blood-tansfusion數據集中RGLR算法的得分要高于其他六種算法的得分。在breast cancer數據集中, RGLR算法的得分與決策樹得分相同且比經典LR算法高出0.088 6。在heart disease數據集中RGLR算法得分雖然大于LR算法的得分,但低于VKNGR的得分。在ionosphere數據集中RGLR準確率得分略低于擁有最高得分的VKNGA算法。
由表6可知,當使用F1-score作為性能評估指標時,在BUPA、ionosphere、Pima和breast cancer數據集中,RGLR的F1-Score高于其他六種算法的F1-score得分,在數據集heart disease和Haberman上,VKNGR F1-score高于包括RGLR在內的其他六種算法的F1-score,在blood-transfusion數據集中,KNN的F1-score高于其他六種算法的F1-score。
3.3 ROC曲線對比
RGLR、LR、KNN、決策樹和SVM在七個UCI數據集的結果取六個數據集(包括breast cancer、blood-transfusion、BUPA、Pima、Haberman和heart disease)進行十折交叉驗證的接受者操作特性ROC曲線如圖3所示。
由圖3可知,在同一數據集上,不同的分類算法ROC曲線不同。在ROC曲線中,偏離對角線表現出更好的性能。在breast cancer、blood-transfusion、BUPA和Haberman 數據集上RGLR的ROC曲線明顯更靠近左上角,其AUC值最高,表明RGLR的分類效果更好。在Pima和heart disease數據集上RGLR、LR和SVM三種算法的ROC曲線接近,但RGLR的AUC值最高,表明RGLR的分類效果更好。
從以上實驗可知,在大部分數據集上旋轉粒邏輯回歸算法的分類性能均優(yōu)于邏輯回歸算法,優(yōu)于大部分的其他算法。與傳統算法不同,旋轉粒邏輯回歸算法利用旋轉?;夹g在結構上突破,引入了更為復雜的特征表示和模型的非線性建模能力,同時在不同角度和方向上引入了新的特征變換,這不僅提高了對高維數據集的適應能力,還能夠捕捉到數據中更加復雜的模式和結構,且提升了算法的分類性能,使得算法對于不同類型的數據集都有一個不錯的效果。
4 結束語
傳統邏輯回歸分類器不具備處理模糊數據的性能,對于難以處理的YF3nzPUO1phk6pBKtjf00Q==高維、不確定性數據,其分類效果不佳。本文從樣本的?;嵌瘸霭l(fā),通過定義粒向量的形式,還提出了一種新型的邏輯回歸分類模型:旋轉粒邏輯回歸。通過引入粒計算理論,樣本在特征構成的平面坐標系上不同角度的旋轉,構建旋轉粒子,多平面坐標系上的?;瘶嬙斐尚D粒向量。進一步定義旋轉粒的大小、度量和運算規(guī)則,提出粒邏輯回歸的損失函數。最后,進行實驗分析,驗證了旋轉粒K近鄰模型的正確性與有效性。在未來的工作中,可以研究粒的局部?;椒?,提高?;俣扰c?;阅埽豢梢匝芯苛5亩攘糠椒?,提高粒分類器的分類精度。
參考文獻:
[1]Zadeh L A. Fuzzy sets[J]. Information and Control, 1965,8(3): 338-353.
[2]Lin T Y. Granular computing on binary relations I: data mining and neighborhood systems[J]. Rough Sets in Knowledge Discovery, 1998, 2: 165-166.
[3]Fu Chen, Lu Wei, Pedrycz W, et al. Fuzzy granular classification based on the principle of justifiable granularity[J]. Knowledge-Based Systems, 2019, 170: 89-101.
[4]Zhou Yanjun, Ren Huorong, Li Zhiwu, et al. Anomaly detection based on a granular Markov model[J]. Expert Systems with Applications, 2022, 187: 115744.
[5]Zadeh L A. Toward a theory of fuzzy information granulation and its centrality in human reasoning and fuzzy logic[J]. Fuzzy Sets and Systems, 1997, 90(2): 111-127.
[6]Lu Wei, Ma Cong, Pedrycz W, et al. Design of granular model: a method driven by hyper-box iteration granulation[J]. IEEE Trans on Cybernetics, 2023, 53(5): 2899-2913.
[7]Lin T Y. Approximate computing in numerical analysis variable interval computing[C]//Proc of IEEE International Conference on Systems, Man and Cybernetics. Piscataway, NJ: IEEE Press, 2019: 2013-2018.
[8]Lin T Y, Zadeh L A. Special issue on granular computing and data mining[J]. International Journal of Intelligent Systems, 2004, 19(7): 565-566.
[9]Yue Xiaodong, Zhou Jie, Yao Yiyu, et al. Shadowed neighborhoods based on fuzzy rough transformation for three-way classification[J]. IEEE Trans on Fuzzy Systems, 2020, 28(5): 978-991.
[10]Zhan Jianming, Zhang Xiaohong, Yao Yiyu. Covering based multigranulation fuzzy rough sets and corresponding applications[J]. Artificial Intelligence Review, 2020, 53(2): 1093-1126.
[11]Gao Can, Zhou Jie, Miao Duoqian, et al. Granular-conditional-entropy based attribute reduction for partially labeled data with proxy labels[J]. Information Sciences, 2021, 580: 111-128.
[12]Zhang Xianyong, Gou Hongyuan, Lyu Zhiying, et al. Double-quanti-tative distance measurement and classification learning based on the tri-level granular structure of neighborhood system[J]. Knowledge-Based Systems, 2021, 217: 106799.
[13]Zhang Xianyong, Yao Hong, Lyu Zhiying, et al. Class-specific information measures and attribute reducts for hierarchy and systematicness[J]. Information Sciences, 2021, 563: 196-225.
[14]Yu Ying, Tang Hong, Qian Jin, et al. Fine-grained image recognition via trusted multi-granularity information fusion[J]. International Journal of Machine Learning and Cybernetics, 2023, 14(4): 1105-1117.
[15]Qian Jin, Miao Duoqian, Zhang Zehua, et al. Parallel attribute reduction algorithms using mapreduce[J]. Information Sciences, 2014, 279: 671-690.
[16]Shao Mingwen, Wu Weizhi, Wang Xizhao, et al. Knowledge reduction methods of covering approximate spaces based on concept lattice[J]. Knowledge-Based Systems, 2020, 191: 105269.
[17]Chen Yumin, Qin Nan, Li Wei, et al. Granule structures, distances and measures in neighborhood systems[J]. Knowledge-Based Systems, 2019, 165: 268-281.
[18]Li Wei, Chen Yumin, Song Yuping. Boosted K-nearest neighbor classifiers based on fuzzy granules[J]. Knowledge-Based Systems, 2020, 195: 1-13.
[19]Xia Shuyin, Liu Yunsheng, Ding Xin, et al. Granular ball computing classifiers for efficient, scalable and robust learning[J]. Information Sciences, 2019, 483: 136-152.
[20]陳玉明, 董建威. 基于粒計算的非線性感知機[J]. 數據采集與處理, 2022, 37(3): 566-575. (Chen Yuming, Dong Jianwei. Non-linear perceptron based on granular computing[J]. Journal of Data Acquisition and Processing, 2022, 37(3): 566-575.)
[21]Chen Linshu, Shen Fuhui, Tang Yufei, et al. Algebraic structure based clustering method from granular computing prospective[J]. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 2023, 31(1): 121-140.
[22]Chen Linshu, Zhao Lei, Xiao Zhenguo, et al. A granular computing based classification method from algebraic granule structure[J]. IEEE Access, 2021, 9: 68118-68126.
[23]Mendel J M, Bonissone P P. Critical thinking about explainable AI(XAI) for rule-based fuzzy systems[J]. IEEE Trans on Fuzzy Systems, 2021, 29(12): 3579-3593.
[24]Nibbering D, Hastie T J. Multiclass-penalized logistic regression[J]. Computational Statistics & Data Analysis, 2022, 169: 107414.
[25]Jawa T M. Logistic regression analysis for studying the impact of home quarantine on psychological health during COVID-19 in Saudi Arabia[J]. Alexandria Engineering Journal, 2022, 61(10): 7995-8005.
[26]Li Chenggang, Liu Qing, Huang Lei. Credit risk management of scientific and technological enterprises based on text mining[J]. Enterprise Information Systems, 2021, 15(6): 851-867.
[27]張旭, 柳林, 周翰林, 等. 基于貝葉斯邏輯回歸模型研究百度街景圖像微觀建成環(huán)境因素對街面犯罪的影響[J]. 地球信息科學學報, 2022, 24(8): 1488-1501. (Zhang Xu, Liu Lin, Zhou Hanlin, et al. Using Baidu street view images to assess impacts of micro-built environment factors on street crimes: a Bayesian logistic regression approach[J]. Journal of Geoinformation Science, 2022, 24(8): 1488-1501.)
[28]Chen Yumin, Cai Zhiwen, Shi Lei, et al. A fuzzy granular sparse learning model for identifying antigenic variants of influenza viruses[J]. Applied Soft Computing, 2021, 109: 107573.
[29]陳玉明, 李偉. 粒向量與K近鄰粒分類器[J]. 計算機研究與發(fā)展, 2019, 56(12): 2600-2611. (Chen Yuming, Li Wei. Granular vectors and K-nearest neighbor granular classifiers[J]. Journal of Computer Research and Development, 2019, 56(12): 2600-2611.)