Objektdarstellung für gitterbasiertes maschinelles Lernen

Dies ist der vierte Artikel in einer Reihe (Links zum ersten , zweiten und drittenArtikel), die dem maschinellen Lernsystem gewidmet sind, das auf der Theorie der Gitter basiert und als "VKF-System" bezeichnet wird. Das Programm verwendet Algorithmen, die auf Markov-Ketten basieren, um die Ursachen der Zieleigenschaft zu generieren, indem eine zufällige Teilmenge von Ähnlichkeiten zwischen einigen Gruppen von Lernobjekten berechnet wird. Dieser Artikel beschreibt die Darstellung von Objekten durch Bitfolgen, um Ähnlichkeiten durch bitweise Multiplikation der entsprechenden Darstellungen zu berechnen. Objekte mit diskreten Merkmalen erfordern eine Technik aus der formalen Konzeptanalyse. Der Fall von Objekten mit kontinuierlichen Merkmalen verwendet eine logistische Regression, bei der der Änderungsbereich mithilfe der Informationstheorie und einer Darstellung entsprechend der konvexen Hülle der verglichenen Intervalle in Teilintervalle unterteilt wird.



habe eine Idee!



1 Diskrete Zeichen



, , - . , ""/"". 'null' ( '_' ), () .



. . , .



( , ), () .





L,, G () - M () - . gImgm (G,M,I) L(G,M,I), L,,.



xL L,, -, x y,zL y<x z<x yz<x.

xL L,, -, xT y,zL x<y x<z x<yz.



- , , - , .



irreduzible Elemente



( . (L,L,))



G\M h i j k
a 1 1 1 0
b 0 1 1 1
c 1 1 0 0
d 1 0 1 0
f 0 1 0 1
g 0 0 1 1


, .



, 121 , 24 !



, :



  1. .
  2. , ( - ).
  3. (-) .
  4. .


CPython-: 'vkfencoder' vkfencoder.XMLImport 'vkf' vkf.FCA. — : vkf.FCA MariaDB, vkfencoder.XMLImport XML .



2



. C4.5 .

, .

, , , . .



2.1



, . .



E=GO G - O. [a,b)R V:GR G[a,b)={gG:aV(g)<b}, O[a,b)={gO:aV(g)<b}

E[a,b)={gE:aV(g)<b}.



[a,b)R V:GR



ent[a,b)=|G[a,b)||E[a,b)|log2(|G[a,b)||E[a,b)|)|O[a,b)||E[a,b)|log2(|O[a,b)||E[a,b)|)



a<r<b [a,b)R V:GR



inf[a,r,b)=|E[a,r)||E[a,b)|ent[a,r)+|E[r,b)||E[a,b)|ent[r,b).



V=r .



V:GR a=min{V} v0, vl+1 , b=max{V.}}. {v1<...<vl}} .



2.2



2l, l — . ()



δV.ich(G)=1V.(G)vichσV.ich(G)=1V.(G)<vich,



1ichl.



δV.1(G)...δV.l(G)σV.1(G)...σV.l(G) V. GE..



, — .



δ(1)1...δ(1)lσ(1)1...σ(1)l vichV.(EIN1)<vj δ(2)1...δ(2)lσ(2)1...σ(2)l vnV.(EIN2)<vm.



(δ(1)1δ(2)1)...(δ(1)lδ(2)l)(σ(1)1σ(2)1)...(σ(1)lσ(2)l)



min{vi,vn}V((A1A2))<max{vj,vm}.



, 0000 min{V}V((A1A2))max{V}.



2.3



. ( 1). . , .





pi1pik pi1++pik>σ 0<σ<1.



,



c:Rd{0,1}, Rd — ( d ) {0,1} .



, X,KRd×{0,1},



pX,K(x,k)=pX(x)pKX(kx),



pX(x) — () , a pKX(kx) — , .. xRd



pKX(kx)=P{K=kX=x}.



c:Rd{0,1}



R(c)=P{c(X)K}.



b:Rd{0,1} pKX(kx)



b(x)=1pKX(1x)>12>pKX(0x)





b :



c:Rd{0,1}[R(b)=P{b(X)K}R(c)]





pKX(1x)=pXK(x1)P{K=1}pXK(x1)P{K=1}+pXK(x0)P{K=0}==11+pXK(x0)P{K=0}pXK(x1)P{K=1}=11+exp{a(x)}=σ(a(x)),



a(x)=logpXK(x1)P{K=1}pXK(x0)P{K=0} σ(y)=11+exp{y} .



2.4



a(x)=logpXK(x1)P{K=1}pXK(x0)P{K=0} wTφ(x) φi:RdR (i=1,,m) wRm.



x1,k1,,xn,kn tj=2kj1.



log{p(t1,,tnx1,,xn,w)}=nj=1log[1+exp{tjmi=1wiφi(xj)}].



,



L(w1,,wm)=nj=1log[1+exp{tjmi=1wiφi(xj)}]max



.



-



wt+1=wt(wTwL(wt))1wL(wt).



sj=11+exp{tj(wTΦ(xj))}



L(w)=ΦTdiag(t1,,tn)s,L(w)=ΦTRΦ,



R=diag(s1(1s1),s2(1s2),,sn(1sn))

s1(1s1),s2(1s2),,sn(1sn) diag(t1,,tn)st1s1,t2s2,,tnsn.



wt+1=wt+(ΦTRΦ)1ΦTdiag(t)s=(ΦTRΦ)1ΦTRz,



z=Φwt+R1diag(t1,,tn)s — .



, - -



wt+1=(ΦTRΦ+λI)1(ΦTRz).



"-" : 1 .



, . :



- Vk ,



R2=1exp{2(L(w0,,wk1)L(w0,,wk1,wk))/n}σ



Vk ,



1L(w0,,wk1,wk)L(w0,,wk1)σ





"-" Wine Quality ( . ). . ( >7), .



( 2.3) "" "". ( ) , 0 1. " " "" .



Die Situation mit dem Paar ("pH", "Alkohol") war jedoch radikal anders. Das "Alkohol" -Gewicht war positiv, während das "pH" -Gewicht negativ war. Aber mit Hilfe einer offensichtlichen logischen Transformation haben wir die Implikation ("pH") erhalten. "Alkohol").



Der Autor möchte seinen Kollegen und Studenten für ihre Unterstützung und Anreize danken.




All Articles