SlideShare a Scribd company logo
1 of 55
III.6 Tiếp cận mạng Neural
Mang neural la thuat ngư noi đen mot phương phap giai quyet van đe
– bai toan trên may tính mô phong theo hoat đong cua cac te bao than
kinh trong não bo.
 • Mang neural nhân tao la sự mô phong cau truc cua mang neural sinh
hoc. Mang neural nhân tao đươc tao thanh bơi sự noi ket giưa rat nhieu
                   đơn vị than kinh goi la perceptron.


                                                           Khớp
 Nhánh
                                        Trục


                     Thân
              Cau truc cua mot te bao than kinh sinh hoc
III.6 Tiếp cận mạng Neural (tt)
      •Cấu tạo mot đơn vị than kinh nhân tao (như hình vẽ)
  Gia trị đau ra y cua mot perceptron đươc tính bang công thức sau:
          y = f((xnwn+ xn-1wn-1 + … + w2n2 + w1n1 + w0) - φ)

            ( φ đươc goi la ngưỡng kích hoat cua neural )

                                          x1
Ham f đươc goi la ham                               w1
truyen. Mot ham truyen can       x2            w2
phai co tính chat sau :
    - bị chan                         …                               y
                                                         ∑xiwi   f
    - đơn đieu tăng                   wn-1
    - ham liên tuc tăng       xn-1        wn
                                     xn
III.6 Tiếp cận mạng Neural (tt)
Cac ham truyen thương đươc sử dung:
                                                          1
Ham logistic (hay con goi la ham Sigma)        f ( x) =
                                                        1+ e −x


                                1 − e− x
Ham hyperbol            h( x) =
                                1 + e−x

Ham tang-hyperbol                 e x − e− x
                       tanh ( x) = x
                                  e + e−x
III.6 Tiếp cận mạng Neural (tt)
Mô hình minh họa mạng neural 1 lớp

                                     Cung liên kết
                                     (trọng số Wj)



Units Input



                                           Unit output
III.6 Tiếp cận mạng Neural (tt)
Mô hình minh họa mạng neural tổng quát
Các unit input        Các unit ẩn           Các unit output
    Ik         Wk,j        aj       Wj, i         Oi
III.6 Tiếp cận mạng Neural (tt)
1. Mạng lan truyền (Feed Forward)
                 W13                    W35
      I1                      H3
           W14
                                                O5
           W23

      I2                      H4         W45
                 W24

 Nguyên tắc xác định giá trị Output của node 5:
 a5        = f (W3,5a3 + W4,5a4)
           = f (W3,5 f(W1,3a1 + W2,3a2) + W4,5 f(W1,4a1 + W2,4a2))
III.6 Tiếp cận mạng Neural (tt)
2. Mạng Hopfield
                 -1                                         -1


    +1        -1           +3                  +1        -1           +3
                -1                                         -1


                +1    -2        +3                         +1    -2        +3
      +2                                        +2

         +1           -1                            +1           -1

Mạng Hopfield hoạt động tương tự hoạt động một bộ nhớ kết hợp có:
                                 Wi,j = Wj,i
III.5 Tiếp cận mạng Neural (tt)
3. Mạng Perceptron
Các unit input     Các unit output   Các unit input     Các unit output
    Ij                                   Ij
                             Oi                                   Oi
                 Wj,i                                 Wj,i




                                                 Perceptron đơn lẻ
III.5 Tiếp cận mạng Neural (tt)
Mạng Perceptron

 input               output          Wi = Wi + α*Xi

  Xi                                 Wi = Wi - α*Xi
              Wi,j
                                     α: hệ số học
                          Oj
                                O

                          T-O
                                    T : đầu ra mong muốn
         Perceptron đơn             O: đầu ra của mạng
               lẻ
III.6 Tiếp cận mạng Neural (tt)
Khả năng phân chia tuyến tính trong mạng Perceptron

 I1                        I1                         I1
1                          1                         1

                                                                    ?
0                          0                         0
       0              I2                        I2         0                   I2
                                0           1

      (a) I1 and I2              (b) I1 or I2                  (c) I1 xor I2

                       1        nếu W1I1 + W2I2 > θ
        Y(I1, I2) =
                       0        ngược lại
III.6 Tiếp cận mạng Neural (tt)
Hạn chế của mạng Perceptron
- Năm 1969, Minsky và Papert đã phân tích và chứng
minh sự thất bại của mạng Perceptron với bài toán
XOR.

    I1         I2         y(I1, I2) = I1 XOR I2
    1          1                     0
    1          0                     1
    0          1                     1
    0          0                     0
III.6 Tiếp cận mạng Neural (tt)
Xét từng trường hợp :
Nếu [I1, I2]=[0,0] thì y(I1, I2)=0 ⇒ W1*0 + W2*0 < θ ⇒ θ > 0
Nếu [I1, I2]=[0,1] thì y(I1, I2)=1 ⇒ W1*0 + W2*1 ≥ θ ⇒ θ ≤ W1
Nếu [I1, I2]=[1,0] thì y(I1, I2)=1 ⇒ W1*1 + W2*0 ≥ θ ⇒ θ ≤ W2
Nếu [I1, I2]=[1,1] thì y(I1, I2)=0 ⇒ W1*1 + W2*1 < θ ⇒ θ > W1 + W2



⇒Rõ ràng không thể tìm được W1, W2, θ thỏa mãn 4 bất
đẳng thức trên.
⇒ Mô hình Perceptron không thể tìm ra lời giải trong trường
hợp này vì hàm XOR không phải là hàm ngưỡng tuyến tính.
III.6 Tiếp cận mạng Neural (tt)
Ví dụ minh họa việc học của mạng Perceptron :
            Cột Độ dài Độ rộng Độ dài Độ rộng Loài
           thêm đài hoa đài hoa  cánh   cánh
            vào                   hoa    hoa
Cây Iris A      1    4.7     3.2    1.3    0.2  -1
Cây Iris B      1    6.1     2.8    4.7    1.2   1
Cây Iris C      1    5.6     3.0    4.1    1.3   1
Cây Iris D      1    5.8     2.7    5.1    1.9  -1
Cây Iris E      1    6.5     3.2    5.1    2.0  -1
Cây Iris Q      1    5.8     2.7    3.9    1.2 ???

Khởi tạo trọng số : w1=1; w2=0; w3=0; w4=0; w5=1
III.6 Tiếp cận mạng Neural (tt)
 Dự đoán lần thứ nhất đối với mẫu “Cây Iris A”
     5

   ∑w x
    i =1
           i   i   = 1*1 + 0 * 4.7 + 0 * 3.2 + 0 *1.3 +1* 0.2 = 1.2

Perceptron dự đoán “Loài” có kết quả là 1 so với kết
quả đúng là -1
 Cập nhật trọng số mạng
 wi ← wi − α * xi              Nếu kết quả “Loài” là 1 so với
                               kết quả đúng là -1

 ( α: Tỉ lệ học nên chọn nhỏ, ở đây ta chọn α = 0.05)
III.6 Tiếp cận mạng Neural (tt)
 w1 ← w1 − 0.05 * x1 = 1 − 0.05 *1 = 0.95
 w2 ← w2 − 0.05 * x2 = 0 − 0.05 * 4.7 = −0.24
 w3 ← w3 − 0.05 * x3 = 0 − 0.05 * 3.2 = −0.16
 w4 ← w4 − 0.05 * x4 = 0 − 0.05 *1.3 = −0.07
 w5 ← w5 − 0.05 * x5 = 1 − 0.05 * 0.2 = 0.99
Các trọng số này dùng để luyện cho những mẫu kế tiếp
 Điều kiện dừng :
  Tất cả các mẫu đã được dự đoán đúng.
  Dừng sau một số bước lặp do người dùng quyết định.
III.6 Tiếp cận mạng Neural (tt)
 Nhận xét : Cập nhật trọng số sao cho tối tiểu sai lệch.
(1) wi ← wi −α * xi           Nếu kết quả “Loài” là 1 so với
                              kết quả đúng là -1
( 2) wi ← wi + α * xi         Nếu kết quả “Loài” là -1 so với
                              kết quả đúng 1
                                    ∑
                                        n
  (1) w i x i góp phần làm cho          i=1
                                              wi xi> 0.

  •   Trọng số mới là wi ← wi - α*xi. Vì thế bước kế tiếp cho cùng
                     được ( wi - α*xi )*xi = wixi – r*xi2 < wixi
      mẫu dữ liệu ta n
  •   Như vậy
                ∑   i=1
                          wi xi
                                  sau khi thay đổi trọng số nhỏ hơn
                                        trước đó.
  •   Vì vậy kết quả dự đoán sẽ gần về kết quả đúng là –1.
III.6 Tiếp cận mạng Neural (tt)
Nguyên lý hoạt động của mạng Perceptron
Bước 1: Xác định giá trị của Err
     Err = T – O ( T : đầu ra mong muốn)
     if Err > 0 then tăng O
     else giảm O
Bước 2: Cập nhật giá trị ma trận trọng số
     W j = W j + α* x j *Err . (α là hệ số học)
Bước 3: Lặp lại bước 1 và 2 cho đến khi Err < ε thì dừng.
III.6 Tiếp cận mạng Neural (tt)
4. Mạng lan truyền ngược (back propagation)
 Các unit input        Các unit ẩn           Các unit output
     xk         Wk,j        aj       Wj, i         Oi
III.5 Tiếp cận mạng Neural (tt)
Mạng lan truyền ngược (back propagation)
  input            Hidden            output
     Xi                                Oj
               Wih       h     Whj             O
      .
      .                  .            OT – O
      .                  .               .
                         .               .
                                         .
δo = o(1-o)(T-o)
Whj = Whj + α*δoj*oj
Wih = Wih + α * δo* Wh*oh*(1-oh)*xi
III.6 Tiếp cận mạng Neural (tt)
Tập mẫu cho quá trình học

 Mẫu             Đầu vào              Đầu ra mong muốn
  1       x1 = (x11, x21, …, xn1)             y1
  2       x2 = (x12, x22, …, xn2)             y2
 …                   …                        …
  M      xm = (x1m, x2m, …, xnm)              ym

 Cho mẫu xk vào luyện -> Cho ra Ok sai lệch với kết
quả mong muốn yk. Sai lệch của mẫu thứ k là Ek:

           Ek = ½*(yk - Ok)2 = ½(yk – f(wT x))2
III.6 Tiếp cận mạng Neural (tt)
 Sai lệch của tất cả các mẫu:
             m
        E = ∑ Ek = E1 + E2 + ... + Em
             k =1

 Cập nhật trọng số: theo hướng cực tiểu hóa sai lệch

        w = w − α ∗ E ( w)
                        '
                        k

 α: là hệ số học

  E ( w) =
    '
    k
            d 1 k
                    (
               y −f w x
           dw  2
                      T
                            (   ))   2   
                                            (     (   )) (
                                         =− y − f w x f w x
                                              k     T   ' T
                                                               )
                                         
III.6 Tiếp cận mạng Neural (tt)
Ví dụ minh họa cho phương pháp lan truyền ngược

            Cột Độ dài Độ rộng Độ dài Độ rộng Loài
           thêm đài hoa đài hoa  cánh   cánh
            vào                   hoa    hoa
Cây Iris A      1    4.7     3.2    1.3    0.2   0
Cây Iris B      1    6.1     2.8    4.7    1.2   1
Cây Iris C      1    5.6     3.0    4.1    1.3   1
Cây Iris D      1    5.8     2.7    5.1    1.9   0
Cây Iris E      1    6.5     3.2    5.1    2.0   0
Cây Iris Q      1    5.8     2.7    3.9    1.2 ???

                              1
Chọn hàm truyền:   f ( x) =
                            1+ e −x
III.6 Tiếp cận mạng Neural (tt)

Các unit input        Các unit ẩn           Các unit output
    xk         Wk,j       hj        Wj, i         Oi
 4
                               b

 3                                                o
                               a

2


1
                           0

0
III.6 Tiếp cận mạng Neural (tt)

Khởi tạo các trọng số có giá trị ngẫu nhiên nhỏ
W0a = 0.0    Trọng số cột giá trị -1 trong đơn vị ẩn a
W1a = 0.1    Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 1
W2a = -0.1   Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 2
W3a = -0.1   Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 3
W4a = 0.0    Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 4
III.6 Tiếp cận mạng Neural (tt)
W0b = 0.0    Trọng số cột giá trị -1 trong đơn vị ẩn b
W1b = -0.1   Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 1
W2b = 0.2    Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 2
W3b = 0.1    Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 3
W4b = -0.1   Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 4


W0o = 0.1    Trọng số cột giá trị -1 trong đơn vị xuất o
Wao = 0.2    Trọng số cột trong đơn vị ẩn b từ đơn vị ẩn a
Wbo = -0.1   Trọng số cột trong đơn vị ẩn b từ đơn vị ẩn b
III.6 Tiếp cận mạng Neural (tt)
Bước 1: Dự đoán
 Đối với “cây Iris A” đầu tiên ta tính giá trị xuất của nút ẩn a
oa    = f (w0a + w1ax1 + w2ax2 + w3ax3 + w4ax4)
      = f (0.0 + 0.1*4.7 + (-0.1)*3.2 + (-0.1)*1.3 + 0.0*0.2)
      = f (0.02) = 1/(1 + e -0.02) = 0.5050
 Tương tự với nút ẩn b
ob    = f (w0b + w1bx1 + w2bx2 + w3bx3 + w4bx4)
      = f (0.0 + (-0.1)*4.7 + 0.2*3.2 + 0.1*1.3 + (-0.1)*0.2)
      = f (0.28) = 1/(1 + e -0.28) = 0.5695
III.6 Tiếp cận mạng Neural (tt)

 Cuối cùng ta tính giá trị xuất cho nút xuất o
oo    = f (w0o + waooa + wboob)
      = f (0.1 + 0.2*0.5050 + (-0.1)*0.5695)
      = f (0.1440) = 1/(1 + e –0.1440) = 0.5359


⇒ Giá trị dự đoán cho “cây Iris A” là 0.5359
III.6 Tiếp cận mạng Neural (tt)
Bước 2: Xác định sai lệch
 Dùng kỹ thuật lan truyền ngược (back propagation)
Với   to     : giá trị xuất mong muốn
      oo     : giá trị xuất thật
Sai lệch cần tính cho nút xuất o: δo = oo(1 - oo)(to - oo)
Sai lệch cần tính cho nút ẩn h từ o là: oh(1-oh)who δo


 Trong ví dụ đang xét “cây Iris A” có t0 = 0.

Sai lệch của nút xuất o:
δo=o0(1-o0)(t0-o0)=0.5359*(1-0.5359)*(0-0.5359) = -0.1333
III.6 Tiếp cận mạng Neural (tt)
Sai lệch của nút ẩn a:
δa   = oa(1-oa)wao δo = 0.5050*(1-0.5050)*0.2*(-0.1333)
     = -0.0067
Sai lệch của nút ẩn b:
δb   = ob(1-ob)wbo δo = 0.5695*(1-0.5695)*(-0.1)*(-0.1333)
     = 0.0032
III.6 Tiếp cận mạng Neural (tt)
Bước 3: Bước cập nhật trọng số
Chọn tỉ lệ học α = 0.1
w0a = w0a + α*δa *1 = 0.0 + 0.1*(-0.0067)*1 = -0.0007
w1a = w1a + α*δa *x1 = 0.1 + 0.1*(-0.0067)*4.7 = 0.0969
w2a = w2a + α*δa * x2 = -0.1 + 0.1*(-0.0067)*3.2 = -0.1021
w3a = w3a + α*δa * x3 = -0.1 + 0.1*(-0.0067)*1.2 = -0.1009
w4a = w4a + α*δa * x4 = 0.0 + 0.1*(-0.0067)*0.2 = -0.0001
III.6 Tiếp cận mạng Neural (tt)
w0b = w0b + α*δb *1 = 0.0 + 0.1*(0.0032)*1 = 0.0003
w1b = w1b + α*δb *x1 = -0.1 + 0.1*(0.0032)*4.7 = -0.0985
w2b = w2b + α*δb * x2 = 0.2 + 0.1*(0.0032)*3.2 = 0.2010
w3b = w3b + α*δb * x3 = 0.1 + 0.1*(0.0032)*1.2 = 0.1004
w4b = w4b + α*δb * x4 = -0.1 + 0.1*(0.0032)*0.2 = -0.0999
w0o = w0o + α*δo*1 = 0.1 + 0.1*(-0.1333)*1 = 0.0867
wao = wao + α*δo * oa = 0.2 + 0.1*(-0.1333)*0.5050 = 0.1933
wbo = wbo + α*δo * ob = -0.1 + 0.1*(-0.1333)*0.5695 = -0.1076
Tất cả các trọng số này sẽ dùng cho các mẫu kế tiếp.
III.6 Tiếp cận mạng Neural (tt)
 Thử tính cho “cây Iris A” thêm một bước kế tiếp, có kết
quả:
Oa = f (-0.0007 + 0.0969*4.7 + (-0.1021)*3.2 +
      (-0.1009)*1.3 + (-0.0001)*0.2) = f (-0.0032) = 0.4992
Ob = f (0.0003 + -(0.0985)*4.7 + 0.2010*3.2 +
      0.1004*1.3 + (-0.0999)*0.2) = f (0.2911) = 0.5724
Oo= f (0.0867 + 0.1933*0.4992 + (-0.1076)*0.5724)
  = f (0.1440) = 0.5304
 Kết quả, ta thấy 0.5304 gần về 0 (kết quả mong muốn) so
với kết quả của bước trước đó là 0.5359.
III.6 Tiếp cận mạng Neural (tt)
Tóm tắt giải thuật
Cho trước K mẫu dữ liệu :

                     { ( x , y ),....( x , y ) }
                          1   1        k   k


với xk = (x1k, x2k, …, xnk) và yk ∈ R, k = 1, …, K.
Bước 1: chọn trước giá trị α > 0 và Emax >0.

Bước 2: khởi tạo ngẫu nhiên w, bắt đầu với mẫu thứ nhất k = 1 và
gán sai lệch E = 0.
Bước 3: bắt đầu quá trình học, gán x = xk , y = yk. Đầu ra của mạng
neuron tính theo:                     1
                      O k
                              =
                                  1 +exp( − T o k )
                                           W
III.6 Tiếp cận mạng Neural (tt)
trong đó ok là giá trị ra của lớp ẩn, được tính bởi:
                       1
             o =
               k
               l
                 1 +exp(−w1 xk )
                          T



Bước 4: cập nhật trọng số neuron đầu ra:       W = W + αδ o
với     δ = ( y − O)O(1 − O)
Bước 5: cập nhật trọng số của neuron ẩn

      wl = wl + αδWl ol (1 − ol ) x            (cho l = 1, …., L)
III.6 Tiếp cận mạng Neural (tt)

Bước 6: tính sai lệch bằng cách cộng thêm sai lệch hiện tại
                        1
                 E = E + ( y − O) 2

                        2
Bước 7: nếu k < K thì k = k + 1 và trở lại Bước 3. Nếu không thì
qua Bước 8.
Bước 8: Nếu E <= Emax thì kết thúc quá trình học. Còn nếu E >
Emax gán E = 0 và bắt đầu một chu kỳ học mới bằng cách trở lại
Bước 3.
Phần III: Khai mỏ dữ liệu và khám phá tri thức


                      Chương 7:
                Khai mỏ dữ liệu
                           Tham khảo thêm:
 [1] GS.TSKH Hoàng Kiếm. Bài giảng cao học môn học cơ sở tri
 thức và ứng dụng. ĐHKHTN-TPHCM.
 [2] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data
 Mining Methods for Knowledge Discovery. Kluwer Academic
 Publishers, 1998
 [3] Citeseer - Scientific Literature Digital Library. Artificial
 Intelligence-http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
I. Một số bài toán điển hình về data
                  mining
 Bài toán khám phá luật kết hợp
 Bài toán phân loại dữ liệu
 Bài toán gom nhóm dữ liệu
 Bài toán lập mô hình
 Bài toán dự báo
…
I. Một số bài toán điển hình về data mining
                          (tt)
 a. Phát hiện luật kết hợp (association rules)
 Tìm ra những mối liên hệ giữa các trường mô tả đối
tượng trong CSDL và xây dựng thành các luật cụ thể.
 Luật kết hợp là tri thức quan trọng nhất tiềm ẩn trong
CSDL.
Ví dụ: Sau khi phân tích một CSDL bán hàng ta tìm ra
được các luật
(1): Nếu khách hàng mua món A cũng sẽ mua món B.
(2): Nếu khách hàng mua món C thì tháng sau sẽ mua
món D.
…
I. Một số bài toán điển hình về data mining
 b. Phân lớp (classification) (tt)

                                                            Phân những đối
                                                            tượng dữ liệu có
                                                            đặc trưng của lớp
                                                            C vào lớp C




    Lôùp                          Lôùp                       Lôùp
    A                             B                          C
 Tham khảo thêm:
 [1] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data Mining
 Methods for Knowledge Discovery. Kluwer Academic Publishers, 1998
 [2] Citeseer - Scientific Literature Digital Library. Artificial Intelligence-
 http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
I. Một số bài toán điển hình về data mining
c. Gom nhóm (Clustering) (tt)
                                                                  Gom những
                                                                  đối tượng dữ
                                                                  liệu tương tự
                                                                  vào 1 nhóm




        Nhoùm                       Nhoùm                     Nhoùm 3
        1                           2
 Tham khảo thêm:
 [1] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data Mining
 Methods for Knowledge Discovery. Kluwer Academic Publishers, 1998
 [2] Citeseer - Scientific Literature Digital Library. Artificial Intelligence-
 http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
II. Luật kết hợp
1. Một số khái niệm:
 Cho I = {i1, i2, i3, …, in} là tập hợp các trường gọi là items
 D: tập các giao tác có các giao tác Ti mà Ti ⊆ I
 T chứa X nếu X ⊆ T (X là tập có các phần tử ⊆ I).
 Mỗi giao tác Ti có chỉ danh là TID.
 Luật kết hợp là một mối liên hệ điều kiện giữa hai tập các hạng mục
dữ liệu X và Y theo dạng sau: Nếu X thì Y, và ký hiệu là X ⇒ Y.
Chúng ta có luật kết hợp X ⇒ Y, nếu X ⊂ I, Y ⊂ I và X ∩ Y = ∅
 Luật X ⇒ Y có độ support là s nếu có s% số giao tác trong D có
chứa X ∪ Y. Hay là :
support (X⇒Y) = s% = Card(X∪Y)/ Card(D) %
II. Luật kết hợp (tt)
Luật X⇒Y có độ tin cậy là c (confidence) nếu có c% số giao tác
trong D chứa X∪Y so với số giao tác trong D chứa X, khi đó ta có :
                     c = Card(X∪Y)/Card(X) %
 Tập các hạng mục dữ liệu gọi là ItemSet có độ support lớn hơn hay
bằng giá trị ngưỡng nhỏ nhất (gọi là minsupp) được gọi là Large
ItemSet. Các ItemSet còn lại được gọi là các Small ItemSet
 Với mỗi một Large ItemSet - L, và A là một tập con khác rỗng của
L, nếu tỉ lệ phần trăm giữa support của L so với support của A lớn hơn
hay bằng độ tin cậy nhỏ nhất. (gọi là minconf) thì ta có luật kết hợp A
⇒ (LA).
II. Luật kết hợp (tt)
 Ví dụ: (minh họa 2 đại lượng minsupp và minconf)

       TID       Age        Married          NumCars
       100       23          No                 1
       200       25          Yes                1
       300       29          No                 0
       400       34          Yes                2
       500       38          Yes                2
Người ta đưa ra minsupp = 40% và mincon f = 50 %.
Tìm ra được 2 luật kết hợp thỏa mãn minsupp và minconf
(1): Age (30..39) and (Married: Yes) ⇒ NumCars = 2 (s = 40%, c = 100%)
(2): NumCars(0..1) ⇒ Married = No (s = 40%, c = 66,6%).
II. Luật kết hợp (tt)
2. Biến đổi CSDL
 Phân chia giá trị của thuộc tính thành những khoảng và ứng
với mỗi khoảng liên kết nó với một giá trị nguyên dương để dễ
dàng thao tác trên các thuộc tính.

                     Thuộc tính trong CSDL

             Thuộc tính không      Thuộc tính
                định lượng         định lượng
             Ví dụ: thuộc tính    Ví dụ: Thuộc
                   Age            tính Married
II. Luật kết hợp (tt)
Ví dụ: CSDL có thuộc tính Age nhận giá trị từ 20 → 50. Ta có
thể chia 20 → 50 thành 4 khoảng: 10..19; 20..29; 30..39; 40..49.
Xem mỗi miền này như là một thuộc tính riêng lần lượt là: 1, 2, 3,
4.

    TID       Age                          TID     Thuộc tính
    100       32                           100         3
    200       48         biến đổi thành    200         4
    300       21                           300         2
    400       34                           400         3
    500       15                           500         1
II. Luật kết hợp (tt)
3. Tìm luật kết hợp
Để rút ra được luật trong CSDL cần tiến hành 5 bước sau:
 B1: Xác định khoảng phân chia của mỗi thuộc tính khi cần
phân tích.
 B2: Kết hợp mỗi khoảng thuộc tính đã phân chia ở bước B1 với
một số nguyên để thực hiện các thuật toán được nhanh, dễ dàng.
 B3: So sánh các support của các item với minsupp, tạo tập
Largeitemset.
 B4: ABCD và AB là Large itemset ta rút ra được luật
     AB ⇒ CD khi support(ABCD)/support(AB) >= minconf
 B5: Xác định chọn những luật phù hợp
II. Luật kết hợp (tt)
Ví dụ: Dùng ví dụ về hồ sơ nhân sự ở trên chia khoảng trên thuộc
tính AGE (giả sử chia thành 4 khoảng).
   Minsupp = 40% = 2 records
   Minconf = 50%


              TID     Age      Married     NumCars
              100     23        No            1
              200     25        Yes           1
              300     29        No            0
              400     34        Yes           2
              500     38        Yes           2
II. Luật kết hợp (tt)
Các khoảng chia Age
                         TID      Age       Married   NumCars
    Interval             100     20 .. 24    No          1
    20 .. 24             200     25 .. 29    Yes         1
    25 .. 29             300     25 .. 29    No          0
    30 .. 34             400     30 .. 34    Yes         2
    35 .. 39             500     35 .. 39    Yes         2
Kết hợp thuộc tính Age và Married với một số nguyên
  Interval     Integer         Value Integer
  20 .. 24        1             Yes     1
  25 .. 29        2             No      2
  30 .. 34        3
  35 .. 39        4
II. Luật kết hợp (tt)

Bảng kết quả sau khi biến đổi

            TID      Age    Married   NumCars
            100       1       2          1
            200       2       1          1
            300       2       2          0
            400       3       1          2
            500       4       1          2
II. Luật kết hợp (tt)
 Tập Large itemset tìm được như sau:
                    Itemset                        Support
              {(Age: 20 .. 29)}                       3
              {(Age: 30 .. 39)}                       2
              {(Married: Yes)}                        3
              {(Married: No)}                         2
             {(Numcars: 0 .. 1)}                      3
      {(Age: 30 .. 39), (Married: Yes)}}              2
 Rút ra được các luật sau:
                     Rule                          S         C
(Age: 30..39) and (Married:Yes) ⇒ (Numcars: 2)   40%   100%
(Age: 20..29) ⇒ (Numcars: 0..1)                  60%   66,6%
II. Luật kết hợp (tt)
Ví dụ: Bài toán tìm luật kết hợp
Cho CSDL sau: Tìm các luật kết hợp nếu cho
minsupp = 0.5(50%) và minconf = 1(100%)

      Hóa đơn                    Các mặt hàng
 1                  Bánh mì, nước ngọt, sữa
 2                  Bia, bánh mì
 3                  Bia, nước ngọt, khăn giấy, sữa
 4                  Bia, bánh mì, khăn giấy, sữa
 5                  Nước ngọt, khăn giấy, sữa
II. Luật kết hợp (tt)
 Ta có:
sp(“bánh mì”) = 3/5; sp(“bia”) = 3/5; sp(“nước ngọt”) = 3/5;
sp(“sữa”) = 4/5; sp(“khăn giấy”) = 3/5;
⇒ F1 = {“bánh mì”, “bia”, “nước ngọt”, “sữa”, “khăn giấy”}
⇒ C2 = { {“bánh mì”,“bia”}, {“bánh mì”,“nước ngọt”},
{“bánh mì”,“sữa”}, {“bánh mì”,“khăn giấy”}, {“bia”,“nuớc
ngọt”}, {“bia”,”sữa”}, {“bia”,”khăn giấy”}, {“nuớc
ngọt”,”sữa”}, {“nuớc ngọt”,”khăn giấy”},    {“sữa”,”khăn
giấy”} }
II. Luật kết hợp (tt)
 Tìm F2 từ C2:
sp({“bánh mì”, “bia”}) = 2/5 (loại)
sp({“bánh mì”,”nuớc ngọt”}) = 1/5 (loại)
sp({“bánh mì”,”sữa”}) = 2/5 (loại)
…
sp({“nuớc ngọt”, “sữa”}) = 3/5
…
sp({“sữa”,”khăn giấy”}) = 3/5
⇒ F2 = {{“nước ngọt”,”sữa”}, {“sữa”,”khăn giấy”}}
⇒ C3 = {{“nuớc ngọt”,”sữa”,”khăn giấy”}}
II. Luật kết hợp (tt)
 Tìm F3 từ C3:
sp({“nuớc ngọt”,”sữa”,”khăn giấy”}) = 2/5 (loại)
⇒ F3 = {}
⇒ C4 = {}
Vậy tập phổ biến là {{“nước ngọt”,”sữa”}}
 Ta xây dựng 2 luật
(R1) “nước ngọt” → “sữa”; (R2) “sữa” → “nước ngọt”
conf(R1) = sp(R1)/sp(“nước ngọt”) = 3/5 : 3/5 = 1 (100%)
conf(R2) = sp(R1)/sp(sữa) = 3/5 : 4/5 = ¾ (75%) (loại)
II. Luật kết hợp (tt)
 Vậy tìm được 1 luật: “nuớc ngọt” → “sữa”
      với minsupp = 50% minconf = 100%
Khách hàng mua “nước ngọt” thì cũng sẽ mua “sữa”
4. Thuật toán tìm luật kết hợp
Böôùc 1 : Lieät keâ taát caû caùc taäp con P cuûa I sao cho P >
1.
Böôùc 2 : Vôùi moãi taäp con P, lieät keâ taát caû caùc taäp con
X khaùc troáng cuûa P. Luaät R ñöôïc hình thaønh bôûi :
             R:X→ PX

  Thuật toán APRIORITID
 (Tham khảo thêm bài giảng cao học môn học cơ sở tri thức và ứng dụng.
 ĐHKHTN-TPHCM của GS.TSKH Hoàng Kiếm)

More Related Content

What's hot

Giai phuong trinh vi phan bang bien doi laplace
Giai phuong trinh vi phan bang bien doi laplaceGiai phuong trinh vi phan bang bien doi laplace
Giai phuong trinh vi phan bang bien doi laplaceKiếm Hùng
 
Slide đồ án tốt nghiệp
Slide đồ án tốt nghiệpSlide đồ án tốt nghiệp
Slide đồ án tốt nghiệpToan Pham
 
Thuật toán mã hóa rsa
Thuật toán mã hóa rsaThuật toán mã hóa rsa
Thuật toán mã hóa rsaBảo Điệp
 
Bài giảng Trí Tuệ Nhân Tạo
Bài giảng Trí Tuệ Nhân TạoBài giảng Trí Tuệ Nhân Tạo
Bài giảng Trí Tuệ Nhân TạoDự Nguyễn Quang
 
Công thức Vật lý đại cương II
Công thức Vật lý đại cương IICông thức Vật lý đại cương II
Công thức Vật lý đại cương IIVũ Lâm
 
Giáo trình mạng máy tính PTIT
Giáo trình mạng máy tính PTITGiáo trình mạng máy tính PTIT
Giáo trình mạng máy tính PTITNguynMinh294
 
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuật
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuậtĐề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuật
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuậtHưởng Nguyễn
 
Chuẩn hóa lược đồ quan hệ
Chuẩn hóa lược đồ quan hệChuẩn hóa lược đồ quan hệ
Chuẩn hóa lược đồ quan hệHưởng Nguyễn
 
Phân tích thiết kế hệ thống thông tin PTIT
Phân tích thiết kế hệ thống thông tin PTIT Phân tích thiết kế hệ thống thông tin PTIT
Phân tích thiết kế hệ thống thông tin PTIT NguynMinh294
 
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng Long
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng LongBài Giảng Đại Số Tuyến Tính - ĐH Thăng Long
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng LongHoàng Như Mộc Miên
 
Giáo trình phân tích thiết kế hệ thống thông tin
Giáo trình phân tích thiết kế hệ thống thông tinGiáo trình phân tích thiết kế hệ thống thông tin
Giáo trình phân tích thiết kế hệ thống thông tinVõ Phúc
 
Chuong 4.1 tin hieu va pho
Chuong 4.1 tin hieu va phoChuong 4.1 tin hieu va pho
Chuong 4.1 tin hieu va phothanhyu
 
Xây dựng biểu đồ use case
Xây dựng biểu đồ use caseXây dựng biểu đồ use case
Xây dựng biểu đồ use caseTrung Chinh Hà
 
Giáo trình xử lý ảnh
Giáo trình xử lý ảnhGiáo trình xử lý ảnh
Giáo trình xử lý ảnhTùng Trần
 
[Cntt] bài giảng kĩ thuật vi xử lí
[Cntt] bài giảng kĩ thuật vi xử lí[Cntt] bài giảng kĩ thuật vi xử lí
[Cntt] bài giảng kĩ thuật vi xử líHong Phuoc Nguyen
 
Hệ phương trình vi phân tuyến tính
Hệ phương trình vi phân tuyến tínhHệ phương trình vi phân tuyến tính
Hệ phương trình vi phân tuyến tínhThế Giới Tinh Hoa
 
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên nataliej4
 
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tính
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tínhPhân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tính
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tínhTài Tài
 

What's hot (20)

Giai phuong trinh vi phan bang bien doi laplace
Giai phuong trinh vi phan bang bien doi laplaceGiai phuong trinh vi phan bang bien doi laplace
Giai phuong trinh vi phan bang bien doi laplace
 
Qua trinh qua do
Qua trinh qua doQua trinh qua do
Qua trinh qua do
 
Slide đồ án tốt nghiệp
Slide đồ án tốt nghiệpSlide đồ án tốt nghiệp
Slide đồ án tốt nghiệp
 
Thuật toán mã hóa rsa
Thuật toán mã hóa rsaThuật toán mã hóa rsa
Thuật toán mã hóa rsa
 
Bài giảng Trí Tuệ Nhân Tạo
Bài giảng Trí Tuệ Nhân TạoBài giảng Trí Tuệ Nhân Tạo
Bài giảng Trí Tuệ Nhân Tạo
 
Công thức Vật lý đại cương II
Công thức Vật lý đại cương IICông thức Vật lý đại cương II
Công thức Vật lý đại cương II
 
Giáo trình mạng máy tính PTIT
Giáo trình mạng máy tính PTITGiáo trình mạng máy tính PTIT
Giáo trình mạng máy tính PTIT
 
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuật
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuậtĐề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuật
Đề thi mẫu trắc nghiệm cấu trúc dữ liệu cà giải thuật
 
Chuẩn hóa lược đồ quan hệ
Chuẩn hóa lược đồ quan hệChuẩn hóa lược đồ quan hệ
Chuẩn hóa lược đồ quan hệ
 
Phân tích thiết kế hệ thống thông tin PTIT
Phân tích thiết kế hệ thống thông tin PTIT Phân tích thiết kế hệ thống thông tin PTIT
Phân tích thiết kế hệ thống thông tin PTIT
 
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng Long
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng LongBài Giảng Đại Số Tuyến Tính - ĐH Thăng Long
Bài Giảng Đại Số Tuyến Tính - ĐH Thăng Long
 
Giáo trình phân tích thiết kế hệ thống thông tin
Giáo trình phân tích thiết kế hệ thống thông tinGiáo trình phân tích thiết kế hệ thống thông tin
Giáo trình phân tích thiết kế hệ thống thông tin
 
Chuong 4.1 tin hieu va pho
Chuong 4.1 tin hieu va phoChuong 4.1 tin hieu va pho
Chuong 4.1 tin hieu va pho
 
Xây dựng biểu đồ use case
Xây dựng biểu đồ use caseXây dựng biểu đồ use case
Xây dựng biểu đồ use case
 
Giáo trình xử lý ảnh
Giáo trình xử lý ảnhGiáo trình xử lý ảnh
Giáo trình xử lý ảnh
 
[Cntt] bài giảng kĩ thuật vi xử lí
[Cntt] bài giảng kĩ thuật vi xử lí[Cntt] bài giảng kĩ thuật vi xử lí
[Cntt] bài giảng kĩ thuật vi xử lí
 
Hệ phương trình vi phân tuyến tính
Hệ phương trình vi phân tuyến tínhHệ phương trình vi phân tuyến tính
Hệ phương trình vi phân tuyến tính
 
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên
Đề Tài Thiết Kế Phần Mềm Quản Lý Sinh Viên
 
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tính
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tínhPhân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tính
Phân tích hồi quy và ngôn ngữ R (1): Phân tích hồi quy tuyến tính
 
Đề tài: Hệ thống Iot điều khiển và giám sát ngôi nhà, HAY, 9đ
Đề tài: Hệ thống Iot điều khiển và giám sát ngôi nhà, HAY, 9đĐề tài: Hệ thống Iot điều khiển và giám sát ngôi nhà, HAY, 9đ
Đề tài: Hệ thống Iot điều khiển và giám sát ngôi nhà, HAY, 9đ
 

Recently uploaded

kỳ thi bác sĩ nội trú khóa 48, hướng dẫn
kỳ thi bác sĩ nội trú khóa 48, hướng dẫnkỳ thi bác sĩ nội trú khóa 48, hướng dẫn
kỳ thi bác sĩ nội trú khóa 48, hướng dẫnVitHong183894
 
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...PhcTrn274398
 
Mạch điện tử - Điện tử số sáng tạo VN-new.pdf
Mạch điện tử - Điện tử số sáng tạo VN-new.pdfMạch điện tử - Điện tử số sáng tạo VN-new.pdf
Mạch điện tử - Điện tử số sáng tạo VN-new.pdfXem Số Mệnh
 
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...Xem Số Mệnh
 
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hardBookoTime
 
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...Nguyen Thanh Tu Collection
 
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...Nguyen Thanh Tu Collection
 
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 pha
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 phaThiết kế hệ thống điều khiển chỉnh lưu tích cực 1 pha
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 phaAnhDngBi4
 
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ haoBookoTime
 
cuộc cải cách của Lê Thánh Tông - Sử 11
cuộc cải cách của Lê Thánh Tông -  Sử 11cuộc cải cách của Lê Thánh Tông -  Sử 11
cuộc cải cách của Lê Thánh Tông - Sử 11zedgaming208
 
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptxCHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx22146042
 
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...Nguyen Thanh Tu Collection
 
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...Nguyen Thanh Tu Collection
 
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...Xem Số Mệnh
 
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...Nguyen Thanh Tu Collection
 
Nhóm 10-Xác suất và thống kê toán-đại học thương mại
Nhóm 10-Xác suất và thống kê toán-đại học thương mạiNhóm 10-Xác suất và thống kê toán-đại học thương mại
Nhóm 10-Xác suất và thống kê toán-đại học thương mạiTruongThiDiemQuynhQP
 
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...Nguyen Thanh Tu Collection
 
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...Nguyen Thanh Tu Collection
 
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...Xem Số Mệnh
 
Ma trận - định thức và các ứng dụng trong kinh tế
Ma trận - định thức và các ứng dụng trong kinh tếMa trận - định thức và các ứng dụng trong kinh tế
Ma trận - định thức và các ứng dụng trong kinh tếngTonH1
 

Recently uploaded (20)

kỳ thi bác sĩ nội trú khóa 48, hướng dẫn
kỳ thi bác sĩ nội trú khóa 48, hướng dẫnkỳ thi bác sĩ nội trú khóa 48, hướng dẫn
kỳ thi bác sĩ nội trú khóa 48, hướng dẫn
 
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...
ĐẢNG LÃNH ĐẠO HAI CUỘC KHÁNG CHIẾN GIÀNH ĐỘC LẬP HOÀN TOÀN, THỐNG NHẤT ĐẤT NƯ...
 
Mạch điện tử - Điện tử số sáng tạo VN-new.pdf
Mạch điện tử - Điện tử số sáng tạo VN-new.pdfMạch điện tử - Điện tử số sáng tạo VN-new.pdf
Mạch điện tử - Điện tử số sáng tạo VN-new.pdf
 
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...
Xem tử vi miễn phí trực tuyến cho kết quả chính xác cùng luậ...
 
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard
2第二课:汉语不太难.pptx. Chinese lesson 2: Chinese not that hard
 
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...
BỘ ĐỀ KIỂM TRA CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO CẤU TRÚC ĐỀ MIN...
 
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...
VẬN DỤNG KIẾN THỨC LIÊN MÔN TRONG GIẢI BÀI TẬP ÔN THI THPTQG MÔN SINH HỌC - H...
 
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 pha
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 phaThiết kế hệ thống điều khiển chỉnh lưu tích cực 1 pha
Thiết kế hệ thống điều khiển chỉnh lưu tích cực 1 pha
 
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao
1第一课:你好.pptx. Chinese lesson 1: Hello.Nỉ hao
 
cuộc cải cách của Lê Thánh Tông - Sử 11
cuộc cải cách của Lê Thánh Tông -  Sử 11cuộc cải cách của Lê Thánh Tông -  Sử 11
cuộc cải cách của Lê Thánh Tông - Sử 11
 
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptxCHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx
CHƯƠNG VII LUẬT DÂN SỰ (2) Pháp luật đại cương.pptx
 
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...
TỔNG HỢP 30 ĐỀ THI CHỌN HSG CÁC TRƯỜNG THPT CHUYÊN VÙNG DUYÊN HẢI & ĐỒNG BẰNG...
 
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA CUỐI HỌC KÌ 2 NĂM HỌC 2023-202...
 
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...
Lập lá số tử vi trọn đời có luận giải chi tiết, chính xác n...
 
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...
50 ĐỀ ĐỀ XUẤT THI VÀO 10 THPT SỞ GIÁO DỤC THANH HÓA MÔN TIẾNG ANH 9 CÓ TỰ LUẬ...
 
Nhóm 10-Xác suất và thống kê toán-đại học thương mại
Nhóm 10-Xác suất và thống kê toán-đại học thương mạiNhóm 10-Xác suất và thống kê toán-đại học thương mại
Nhóm 10-Xác suất và thống kê toán-đại học thương mại
 
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...
ĐỀ THAM KHẢO THEO HƯỚNG MINH HỌA 2025 KIỂM TRA GIỮA HỌC KÌ + CUỐI HỌC KÌ 2 NĂ...
 
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...
10 ĐỀ KIỂM TRA + 6 ĐỀ ÔN TẬP CUỐI KÌ 2 VẬT LÝ 11 - KẾT NỐI TRI THỨC - THEO C...
 
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...
Luận giải tử vi của 12 con giáp năm 2024 chi tiết và chính xác -...
 
Ma trận - định thức và các ứng dụng trong kinh tế
Ma trận - định thức và các ứng dụng trong kinh tếMa trận - định thức và các ứng dụng trong kinh tế
Ma trận - định thức và các ứng dụng trong kinh tế
 

Mạng neuron, trí tuệ nhân tạo

  • 1. III.6 Tiếp cận mạng Neural Mang neural la thuat ngư noi đen mot phương phap giai quyet van đe – bai toan trên may tính mô phong theo hoat đong cua cac te bao than kinh trong não bo. • Mang neural nhân tao la sự mô phong cau truc cua mang neural sinh hoc. Mang neural nhân tao đươc tao thanh bơi sự noi ket giưa rat nhieu đơn vị than kinh goi la perceptron. Khớp Nhánh Trục Thân Cau truc cua mot te bao than kinh sinh hoc
  • 2. III.6 Tiếp cận mạng Neural (tt) •Cấu tạo mot đơn vị than kinh nhân tao (như hình vẽ) Gia trị đau ra y cua mot perceptron đươc tính bang công thức sau:  y = f((xnwn+ xn-1wn-1 + … + w2n2 + w1n1 + w0) - φ) ( φ đươc goi la ngưỡng kích hoat cua neural ) x1 Ham f đươc goi la ham w1 truyen. Mot ham truyen can x2 w2 phai co tính chat sau : - bị chan … y ∑xiwi f - đơn đieu tăng wn-1 - ham liên tuc tăng xn-1 wn xn
  • 3. III.6 Tiếp cận mạng Neural (tt) Cac ham truyen thương đươc sử dung: 1 Ham logistic (hay con goi la ham Sigma) f ( x) = 1+ e −x 1 − e− x Ham hyperbol h( x) = 1 + e−x Ham tang-hyperbol e x − e− x tanh ( x) = x e + e−x
  • 4. III.6 Tiếp cận mạng Neural (tt) Mô hình minh họa mạng neural 1 lớp Cung liên kết (trọng số Wj) Units Input Unit output
  • 5. III.6 Tiếp cận mạng Neural (tt) Mô hình minh họa mạng neural tổng quát Các unit input Các unit ẩn Các unit output Ik Wk,j aj Wj, i Oi
  • 6. III.6 Tiếp cận mạng Neural (tt) 1. Mạng lan truyền (Feed Forward) W13 W35 I1 H3 W14 O5 W23 I2 H4 W45 W24 Nguyên tắc xác định giá trị Output của node 5: a5 = f (W3,5a3 + W4,5a4) = f (W3,5 f(W1,3a1 + W2,3a2) + W4,5 f(W1,4a1 + W2,4a2))
  • 7. III.6 Tiếp cận mạng Neural (tt) 2. Mạng Hopfield -1 -1 +1 -1 +3 +1 -1 +3 -1 -1 +1 -2 +3 +1 -2 +3 +2 +2 +1 -1 +1 -1 Mạng Hopfield hoạt động tương tự hoạt động một bộ nhớ kết hợp có: Wi,j = Wj,i
  • 8. III.5 Tiếp cận mạng Neural (tt) 3. Mạng Perceptron Các unit input Các unit output Các unit input Các unit output Ij Ij Oi Oi Wj,i Wj,i Perceptron đơn lẻ
  • 9. III.5 Tiếp cận mạng Neural (tt) Mạng Perceptron input output Wi = Wi + α*Xi Xi Wi = Wi - α*Xi Wi,j α: hệ số học Oj O T-O T : đầu ra mong muốn Perceptron đơn O: đầu ra của mạng lẻ
  • 10. III.6 Tiếp cận mạng Neural (tt) Khả năng phân chia tuyến tính trong mạng Perceptron I1 I1 I1 1 1 1 ? 0 0 0 0 I2 I2 0 I2 0 1 (a) I1 and I2 (b) I1 or I2 (c) I1 xor I2 1 nếu W1I1 + W2I2 > θ Y(I1, I2) = 0 ngược lại
  • 11. III.6 Tiếp cận mạng Neural (tt) Hạn chế của mạng Perceptron - Năm 1969, Minsky và Papert đã phân tích và chứng minh sự thất bại của mạng Perceptron với bài toán XOR. I1 I2 y(I1, I2) = I1 XOR I2 1 1 0 1 0 1 0 1 1 0 0 0
  • 12. III.6 Tiếp cận mạng Neural (tt) Xét từng trường hợp : Nếu [I1, I2]=[0,0] thì y(I1, I2)=0 ⇒ W1*0 + W2*0 < θ ⇒ θ > 0 Nếu [I1, I2]=[0,1] thì y(I1, I2)=1 ⇒ W1*0 + W2*1 ≥ θ ⇒ θ ≤ W1 Nếu [I1, I2]=[1,0] thì y(I1, I2)=1 ⇒ W1*1 + W2*0 ≥ θ ⇒ θ ≤ W2 Nếu [I1, I2]=[1,1] thì y(I1, I2)=0 ⇒ W1*1 + W2*1 < θ ⇒ θ > W1 + W2 ⇒Rõ ràng không thể tìm được W1, W2, θ thỏa mãn 4 bất đẳng thức trên. ⇒ Mô hình Perceptron không thể tìm ra lời giải trong trường hợp này vì hàm XOR không phải là hàm ngưỡng tuyến tính.
  • 13. III.6 Tiếp cận mạng Neural (tt) Ví dụ minh họa việc học của mạng Perceptron : Cột Độ dài Độ rộng Độ dài Độ rộng Loài thêm đài hoa đài hoa cánh cánh vào hoa hoa Cây Iris A 1 4.7 3.2 1.3 0.2 -1 Cây Iris B 1 6.1 2.8 4.7 1.2 1 Cây Iris C 1 5.6 3.0 4.1 1.3 1 Cây Iris D 1 5.8 2.7 5.1 1.9 -1 Cây Iris E 1 6.5 3.2 5.1 2.0 -1 Cây Iris Q 1 5.8 2.7 3.9 1.2 ??? Khởi tạo trọng số : w1=1; w2=0; w3=0; w4=0; w5=1
  • 14. III.6 Tiếp cận mạng Neural (tt)  Dự đoán lần thứ nhất đối với mẫu “Cây Iris A” 5 ∑w x i =1 i i = 1*1 + 0 * 4.7 + 0 * 3.2 + 0 *1.3 +1* 0.2 = 1.2 Perceptron dự đoán “Loài” có kết quả là 1 so với kết quả đúng là -1  Cập nhật trọng số mạng wi ← wi − α * xi Nếu kết quả “Loài” là 1 so với kết quả đúng là -1 ( α: Tỉ lệ học nên chọn nhỏ, ở đây ta chọn α = 0.05)
  • 15. III.6 Tiếp cận mạng Neural (tt) w1 ← w1 − 0.05 * x1 = 1 − 0.05 *1 = 0.95 w2 ← w2 − 0.05 * x2 = 0 − 0.05 * 4.7 = −0.24 w3 ← w3 − 0.05 * x3 = 0 − 0.05 * 3.2 = −0.16 w4 ← w4 − 0.05 * x4 = 0 − 0.05 *1.3 = −0.07 w5 ← w5 − 0.05 * x5 = 1 − 0.05 * 0.2 = 0.99 Các trọng số này dùng để luyện cho những mẫu kế tiếp  Điều kiện dừng : Tất cả các mẫu đã được dự đoán đúng. Dừng sau một số bước lặp do người dùng quyết định.
  • 16. III.6 Tiếp cận mạng Neural (tt) Nhận xét : Cập nhật trọng số sao cho tối tiểu sai lệch. (1) wi ← wi −α * xi Nếu kết quả “Loài” là 1 so với kết quả đúng là -1 ( 2) wi ← wi + α * xi Nếu kết quả “Loài” là -1 so với kết quả đúng 1 ∑ n (1) w i x i góp phần làm cho i=1 wi xi> 0. • Trọng số mới là wi ← wi - α*xi. Vì thế bước kế tiếp cho cùng được ( wi - α*xi )*xi = wixi – r*xi2 < wixi mẫu dữ liệu ta n • Như vậy ∑ i=1 wi xi sau khi thay đổi trọng số nhỏ hơn trước đó. • Vì vậy kết quả dự đoán sẽ gần về kết quả đúng là –1.
  • 17. III.6 Tiếp cận mạng Neural (tt) Nguyên lý hoạt động của mạng Perceptron Bước 1: Xác định giá trị của Err Err = T – O ( T : đầu ra mong muốn) if Err > 0 then tăng O else giảm O Bước 2: Cập nhật giá trị ma trận trọng số W j = W j + α* x j *Err . (α là hệ số học) Bước 3: Lặp lại bước 1 và 2 cho đến khi Err < ε thì dừng.
  • 18. III.6 Tiếp cận mạng Neural (tt) 4. Mạng lan truyền ngược (back propagation) Các unit input Các unit ẩn Các unit output xk Wk,j aj Wj, i Oi
  • 19. III.5 Tiếp cận mạng Neural (tt) Mạng lan truyền ngược (back propagation) input Hidden output Xi Oj Wih h Whj O . . . OT – O . . . . . . δo = o(1-o)(T-o) Whj = Whj + α*δoj*oj Wih = Wih + α * δo* Wh*oh*(1-oh)*xi
  • 20. III.6 Tiếp cận mạng Neural (tt) Tập mẫu cho quá trình học Mẫu Đầu vào Đầu ra mong muốn 1 x1 = (x11, x21, …, xn1) y1 2 x2 = (x12, x22, …, xn2) y2 … … … M xm = (x1m, x2m, …, xnm) ym  Cho mẫu xk vào luyện -> Cho ra Ok sai lệch với kết quả mong muốn yk. Sai lệch của mẫu thứ k là Ek: Ek = ½*(yk - Ok)2 = ½(yk – f(wT x))2
  • 21. III.6 Tiếp cận mạng Neural (tt)  Sai lệch của tất cả các mẫu: m E = ∑ Ek = E1 + E2 + ... + Em k =1  Cập nhật trọng số: theo hướng cực tiểu hóa sai lệch w = w − α ∗ E ( w) ' k α: là hệ số học E ( w) = ' k d 1 k (  y −f w x dw  2 T ( )) 2  ( ( )) ( =− y − f w x f w x k T ' T ) 
  • 22. III.6 Tiếp cận mạng Neural (tt) Ví dụ minh họa cho phương pháp lan truyền ngược Cột Độ dài Độ rộng Độ dài Độ rộng Loài thêm đài hoa đài hoa cánh cánh vào hoa hoa Cây Iris A 1 4.7 3.2 1.3 0.2 0 Cây Iris B 1 6.1 2.8 4.7 1.2 1 Cây Iris C 1 5.6 3.0 4.1 1.3 1 Cây Iris D 1 5.8 2.7 5.1 1.9 0 Cây Iris E 1 6.5 3.2 5.1 2.0 0 Cây Iris Q 1 5.8 2.7 3.9 1.2 ??? 1 Chọn hàm truyền: f ( x) = 1+ e −x
  • 23. III.6 Tiếp cận mạng Neural (tt) Các unit input Các unit ẩn Các unit output xk Wk,j hj Wj, i Oi 4 b 3 o a 2 1 0 0
  • 24. III.6 Tiếp cận mạng Neural (tt) Khởi tạo các trọng số có giá trị ngẫu nhiên nhỏ W0a = 0.0 Trọng số cột giá trị -1 trong đơn vị ẩn a W1a = 0.1 Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 1 W2a = -0.1 Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 2 W3a = -0.1 Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 3 W4a = 0.0 Trọng số trong đơn vị ẩn a từ giá trị nhập thứ 4
  • 25. III.6 Tiếp cận mạng Neural (tt) W0b = 0.0 Trọng số cột giá trị -1 trong đơn vị ẩn b W1b = -0.1 Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 1 W2b = 0.2 Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 2 W3b = 0.1 Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 3 W4b = -0.1 Trọng số trong đơn vị ẩn b từ giá trị nhập thứ 4 W0o = 0.1 Trọng số cột giá trị -1 trong đơn vị xuất o Wao = 0.2 Trọng số cột trong đơn vị ẩn b từ đơn vị ẩn a Wbo = -0.1 Trọng số cột trong đơn vị ẩn b từ đơn vị ẩn b
  • 26. III.6 Tiếp cận mạng Neural (tt) Bước 1: Dự đoán  Đối với “cây Iris A” đầu tiên ta tính giá trị xuất của nút ẩn a oa = f (w0a + w1ax1 + w2ax2 + w3ax3 + w4ax4) = f (0.0 + 0.1*4.7 + (-0.1)*3.2 + (-0.1)*1.3 + 0.0*0.2) = f (0.02) = 1/(1 + e -0.02) = 0.5050  Tương tự với nút ẩn b ob = f (w0b + w1bx1 + w2bx2 + w3bx3 + w4bx4) = f (0.0 + (-0.1)*4.7 + 0.2*3.2 + 0.1*1.3 + (-0.1)*0.2) = f (0.28) = 1/(1 + e -0.28) = 0.5695
  • 27. III.6 Tiếp cận mạng Neural (tt)  Cuối cùng ta tính giá trị xuất cho nút xuất o oo = f (w0o + waooa + wboob) = f (0.1 + 0.2*0.5050 + (-0.1)*0.5695) = f (0.1440) = 1/(1 + e –0.1440) = 0.5359 ⇒ Giá trị dự đoán cho “cây Iris A” là 0.5359
  • 28. III.6 Tiếp cận mạng Neural (tt) Bước 2: Xác định sai lệch  Dùng kỹ thuật lan truyền ngược (back propagation) Với to : giá trị xuất mong muốn oo : giá trị xuất thật Sai lệch cần tính cho nút xuất o: δo = oo(1 - oo)(to - oo) Sai lệch cần tính cho nút ẩn h từ o là: oh(1-oh)who δo  Trong ví dụ đang xét “cây Iris A” có t0 = 0. Sai lệch của nút xuất o: δo=o0(1-o0)(t0-o0)=0.5359*(1-0.5359)*(0-0.5359) = -0.1333
  • 29. III.6 Tiếp cận mạng Neural (tt) Sai lệch của nút ẩn a: δa = oa(1-oa)wao δo = 0.5050*(1-0.5050)*0.2*(-0.1333) = -0.0067 Sai lệch của nút ẩn b: δb = ob(1-ob)wbo δo = 0.5695*(1-0.5695)*(-0.1)*(-0.1333) = 0.0032
  • 30. III.6 Tiếp cận mạng Neural (tt) Bước 3: Bước cập nhật trọng số Chọn tỉ lệ học α = 0.1 w0a = w0a + α*δa *1 = 0.0 + 0.1*(-0.0067)*1 = -0.0007 w1a = w1a + α*δa *x1 = 0.1 + 0.1*(-0.0067)*4.7 = 0.0969 w2a = w2a + α*δa * x2 = -0.1 + 0.1*(-0.0067)*3.2 = -0.1021 w3a = w3a + α*δa * x3 = -0.1 + 0.1*(-0.0067)*1.2 = -0.1009 w4a = w4a + α*δa * x4 = 0.0 + 0.1*(-0.0067)*0.2 = -0.0001
  • 31. III.6 Tiếp cận mạng Neural (tt) w0b = w0b + α*δb *1 = 0.0 + 0.1*(0.0032)*1 = 0.0003 w1b = w1b + α*δb *x1 = -0.1 + 0.1*(0.0032)*4.7 = -0.0985 w2b = w2b + α*δb * x2 = 0.2 + 0.1*(0.0032)*3.2 = 0.2010 w3b = w3b + α*δb * x3 = 0.1 + 0.1*(0.0032)*1.2 = 0.1004 w4b = w4b + α*δb * x4 = -0.1 + 0.1*(0.0032)*0.2 = -0.0999 w0o = w0o + α*δo*1 = 0.1 + 0.1*(-0.1333)*1 = 0.0867 wao = wao + α*δo * oa = 0.2 + 0.1*(-0.1333)*0.5050 = 0.1933 wbo = wbo + α*δo * ob = -0.1 + 0.1*(-0.1333)*0.5695 = -0.1076 Tất cả các trọng số này sẽ dùng cho các mẫu kế tiếp.
  • 32. III.6 Tiếp cận mạng Neural (tt)  Thử tính cho “cây Iris A” thêm một bước kế tiếp, có kết quả: Oa = f (-0.0007 + 0.0969*4.7 + (-0.1021)*3.2 + (-0.1009)*1.3 + (-0.0001)*0.2) = f (-0.0032) = 0.4992 Ob = f (0.0003 + -(0.0985)*4.7 + 0.2010*3.2 + 0.1004*1.3 + (-0.0999)*0.2) = f (0.2911) = 0.5724 Oo= f (0.0867 + 0.1933*0.4992 + (-0.1076)*0.5724) = f (0.1440) = 0.5304  Kết quả, ta thấy 0.5304 gần về 0 (kết quả mong muốn) so với kết quả của bước trước đó là 0.5359.
  • 33. III.6 Tiếp cận mạng Neural (tt) Tóm tắt giải thuật Cho trước K mẫu dữ liệu : { ( x , y ),....( x , y ) } 1 1 k k với xk = (x1k, x2k, …, xnk) và yk ∈ R, k = 1, …, K. Bước 1: chọn trước giá trị α > 0 và Emax >0. Bước 2: khởi tạo ngẫu nhiên w, bắt đầu với mẫu thứ nhất k = 1 và gán sai lệch E = 0. Bước 3: bắt đầu quá trình học, gán x = xk , y = yk. Đầu ra của mạng neuron tính theo: 1 O k = 1 +exp( − T o k ) W
  • 34. III.6 Tiếp cận mạng Neural (tt) trong đó ok là giá trị ra của lớp ẩn, được tính bởi: 1 o = k l 1 +exp(−w1 xk ) T Bước 4: cập nhật trọng số neuron đầu ra: W = W + αδ o với δ = ( y − O)O(1 − O) Bước 5: cập nhật trọng số của neuron ẩn wl = wl + αδWl ol (1 − ol ) x (cho l = 1, …., L)
  • 35. III.6 Tiếp cận mạng Neural (tt) Bước 6: tính sai lệch bằng cách cộng thêm sai lệch hiện tại 1 E = E + ( y − O) 2 2 Bước 7: nếu k < K thì k = k + 1 và trở lại Bước 3. Nếu không thì qua Bước 8. Bước 8: Nếu E <= Emax thì kết thúc quá trình học. Còn nếu E > Emax gán E = 0 và bắt đầu một chu kỳ học mới bằng cách trở lại Bước 3.
  • 36. Phần III: Khai mỏ dữ liệu và khám phá tri thức Chương 7: Khai mỏ dữ liệu Tham khảo thêm: [1] GS.TSKH Hoàng Kiếm. Bài giảng cao học môn học cơ sở tri thức và ứng dụng. ĐHKHTN-TPHCM. [2] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data Mining Methods for Knowledge Discovery. Kluwer Academic Publishers, 1998 [3] Citeseer - Scientific Literature Digital Library. Artificial Intelligence-http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
  • 37. I. Một số bài toán điển hình về data mining  Bài toán khám phá luật kết hợp  Bài toán phân loại dữ liệu  Bài toán gom nhóm dữ liệu  Bài toán lập mô hình  Bài toán dự báo …
  • 38. I. Một số bài toán điển hình về data mining (tt) a. Phát hiện luật kết hợp (association rules)  Tìm ra những mối liên hệ giữa các trường mô tả đối tượng trong CSDL và xây dựng thành các luật cụ thể.  Luật kết hợp là tri thức quan trọng nhất tiềm ẩn trong CSDL. Ví dụ: Sau khi phân tích một CSDL bán hàng ta tìm ra được các luật (1): Nếu khách hàng mua món A cũng sẽ mua món B. (2): Nếu khách hàng mua món C thì tháng sau sẽ mua món D. …
  • 39. I. Một số bài toán điển hình về data mining b. Phân lớp (classification) (tt) Phân những đối tượng dữ liệu có đặc trưng của lớp C vào lớp C Lôùp Lôùp Lôùp A B C Tham khảo thêm: [1] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data Mining Methods for Knowledge Discovery. Kluwer Academic Publishers, 1998 [2] Citeseer - Scientific Literature Digital Library. Artificial Intelligence- http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
  • 40. I. Một số bài toán điển hình về data mining c. Gom nhóm (Clustering) (tt) Gom những đối tượng dữ liệu tương tự vào 1 nhóm Nhoùm Nhoùm Nhoùm 3 1 2 Tham khảo thêm: [1] Krzysztof J. Cios, Witold Pedrycz, Roman W. Swiniarski. Data Mining Methods for Knowledge Discovery. Kluwer Academic Publishers, 1998 [2] Citeseer - Scientific Literature Digital Library. Artificial Intelligence- http://citeseer.nj.nec.com/ArtificialIntelligence/ - 2003
  • 41. II. Luật kết hợp 1. Một số khái niệm:  Cho I = {i1, i2, i3, …, in} là tập hợp các trường gọi là items  D: tập các giao tác có các giao tác Ti mà Ti ⊆ I  T chứa X nếu X ⊆ T (X là tập có các phần tử ⊆ I).  Mỗi giao tác Ti có chỉ danh là TID.  Luật kết hợp là một mối liên hệ điều kiện giữa hai tập các hạng mục dữ liệu X và Y theo dạng sau: Nếu X thì Y, và ký hiệu là X ⇒ Y. Chúng ta có luật kết hợp X ⇒ Y, nếu X ⊂ I, Y ⊂ I và X ∩ Y = ∅  Luật X ⇒ Y có độ support là s nếu có s% số giao tác trong D có chứa X ∪ Y. Hay là : support (X⇒Y) = s% = Card(X∪Y)/ Card(D) %
  • 42. II. Luật kết hợp (tt) Luật X⇒Y có độ tin cậy là c (confidence) nếu có c% số giao tác trong D chứa X∪Y so với số giao tác trong D chứa X, khi đó ta có : c = Card(X∪Y)/Card(X) %  Tập các hạng mục dữ liệu gọi là ItemSet có độ support lớn hơn hay bằng giá trị ngưỡng nhỏ nhất (gọi là minsupp) được gọi là Large ItemSet. Các ItemSet còn lại được gọi là các Small ItemSet  Với mỗi một Large ItemSet - L, và A là một tập con khác rỗng của L, nếu tỉ lệ phần trăm giữa support của L so với support của A lớn hơn hay bằng độ tin cậy nhỏ nhất. (gọi là minconf) thì ta có luật kết hợp A ⇒ (LA).
  • 43. II. Luật kết hợp (tt) Ví dụ: (minh họa 2 đại lượng minsupp và minconf) TID Age Married NumCars 100 23 No 1 200 25 Yes 1 300 29 No 0 400 34 Yes 2 500 38 Yes 2 Người ta đưa ra minsupp = 40% và mincon f = 50 %. Tìm ra được 2 luật kết hợp thỏa mãn minsupp và minconf (1): Age (30..39) and (Married: Yes) ⇒ NumCars = 2 (s = 40%, c = 100%) (2): NumCars(0..1) ⇒ Married = No (s = 40%, c = 66,6%).
  • 44. II. Luật kết hợp (tt) 2. Biến đổi CSDL  Phân chia giá trị của thuộc tính thành những khoảng và ứng với mỗi khoảng liên kết nó với một giá trị nguyên dương để dễ dàng thao tác trên các thuộc tính. Thuộc tính trong CSDL Thuộc tính không Thuộc tính định lượng định lượng Ví dụ: thuộc tính Ví dụ: Thuộc Age tính Married
  • 45. II. Luật kết hợp (tt) Ví dụ: CSDL có thuộc tính Age nhận giá trị từ 20 → 50. Ta có thể chia 20 → 50 thành 4 khoảng: 10..19; 20..29; 30..39; 40..49. Xem mỗi miền này như là một thuộc tính riêng lần lượt là: 1, 2, 3, 4. TID Age TID Thuộc tính 100 32 100 3 200 48 biến đổi thành 200 4 300 21 300 2 400 34 400 3 500 15 500 1
  • 46. II. Luật kết hợp (tt) 3. Tìm luật kết hợp Để rút ra được luật trong CSDL cần tiến hành 5 bước sau:  B1: Xác định khoảng phân chia của mỗi thuộc tính khi cần phân tích.  B2: Kết hợp mỗi khoảng thuộc tính đã phân chia ở bước B1 với một số nguyên để thực hiện các thuật toán được nhanh, dễ dàng.  B3: So sánh các support của các item với minsupp, tạo tập Largeitemset.  B4: ABCD và AB là Large itemset ta rút ra được luật AB ⇒ CD khi support(ABCD)/support(AB) >= minconf  B5: Xác định chọn những luật phù hợp
  • 47. II. Luật kết hợp (tt) Ví dụ: Dùng ví dụ về hồ sơ nhân sự ở trên chia khoảng trên thuộc tính AGE (giả sử chia thành 4 khoảng). Minsupp = 40% = 2 records Minconf = 50% TID Age Married NumCars 100 23 No 1 200 25 Yes 1 300 29 No 0 400 34 Yes 2 500 38 Yes 2
  • 48. II. Luật kết hợp (tt) Các khoảng chia Age TID Age Married NumCars Interval 100 20 .. 24 No 1 20 .. 24 200 25 .. 29 Yes 1 25 .. 29 300 25 .. 29 No 0 30 .. 34 400 30 .. 34 Yes 2 35 .. 39 500 35 .. 39 Yes 2 Kết hợp thuộc tính Age và Married với một số nguyên Interval Integer Value Integer 20 .. 24 1 Yes 1 25 .. 29 2 No 2 30 .. 34 3 35 .. 39 4
  • 49. II. Luật kết hợp (tt) Bảng kết quả sau khi biến đổi TID Age Married NumCars 100 1 2 1 200 2 1 1 300 2 2 0 400 3 1 2 500 4 1 2
  • 50. II. Luật kết hợp (tt) Tập Large itemset tìm được như sau: Itemset Support {(Age: 20 .. 29)} 3 {(Age: 30 .. 39)} 2 {(Married: Yes)} 3 {(Married: No)} 2 {(Numcars: 0 .. 1)} 3 {(Age: 30 .. 39), (Married: Yes)}} 2 Rút ra được các luật sau: Rule S C (Age: 30..39) and (Married:Yes) ⇒ (Numcars: 2) 40% 100% (Age: 20..29) ⇒ (Numcars: 0..1) 60% 66,6%
  • 51. II. Luật kết hợp (tt) Ví dụ: Bài toán tìm luật kết hợp Cho CSDL sau: Tìm các luật kết hợp nếu cho minsupp = 0.5(50%) và minconf = 1(100%) Hóa đơn Các mặt hàng 1 Bánh mì, nước ngọt, sữa 2 Bia, bánh mì 3 Bia, nước ngọt, khăn giấy, sữa 4 Bia, bánh mì, khăn giấy, sữa 5 Nước ngọt, khăn giấy, sữa
  • 52. II. Luật kết hợp (tt)  Ta có: sp(“bánh mì”) = 3/5; sp(“bia”) = 3/5; sp(“nước ngọt”) = 3/5; sp(“sữa”) = 4/5; sp(“khăn giấy”) = 3/5; ⇒ F1 = {“bánh mì”, “bia”, “nước ngọt”, “sữa”, “khăn giấy”} ⇒ C2 = { {“bánh mì”,“bia”}, {“bánh mì”,“nước ngọt”}, {“bánh mì”,“sữa”}, {“bánh mì”,“khăn giấy”}, {“bia”,“nuớc ngọt”}, {“bia”,”sữa”}, {“bia”,”khăn giấy”}, {“nuớc ngọt”,”sữa”}, {“nuớc ngọt”,”khăn giấy”}, {“sữa”,”khăn giấy”} }
  • 53. II. Luật kết hợp (tt)  Tìm F2 từ C2: sp({“bánh mì”, “bia”}) = 2/5 (loại) sp({“bánh mì”,”nuớc ngọt”}) = 1/5 (loại) sp({“bánh mì”,”sữa”}) = 2/5 (loại) … sp({“nuớc ngọt”, “sữa”}) = 3/5 … sp({“sữa”,”khăn giấy”}) = 3/5 ⇒ F2 = {{“nước ngọt”,”sữa”}, {“sữa”,”khăn giấy”}} ⇒ C3 = {{“nuớc ngọt”,”sữa”,”khăn giấy”}}
  • 54. II. Luật kết hợp (tt)  Tìm F3 từ C3: sp({“nuớc ngọt”,”sữa”,”khăn giấy”}) = 2/5 (loại) ⇒ F3 = {} ⇒ C4 = {} Vậy tập phổ biến là {{“nước ngọt”,”sữa”}}  Ta xây dựng 2 luật (R1) “nước ngọt” → “sữa”; (R2) “sữa” → “nước ngọt” conf(R1) = sp(R1)/sp(“nước ngọt”) = 3/5 : 3/5 = 1 (100%) conf(R2) = sp(R1)/sp(sữa) = 3/5 : 4/5 = ¾ (75%) (loại)
  • 55. II. Luật kết hợp (tt)  Vậy tìm được 1 luật: “nuớc ngọt” → “sữa” với minsupp = 50% minconf = 100% Khách hàng mua “nước ngọt” thì cũng sẽ mua “sữa” 4. Thuật toán tìm luật kết hợp Böôùc 1 : Lieät keâ taát caû caùc taäp con P cuûa I sao cho P > 1. Böôùc 2 : Vôùi moãi taäp con P, lieät keâ taát caû caùc taäp con X khaùc troáng cuûa P. Luaät R ñöôïc hình thaønh bôûi :   R:X→ PX  Thuật toán APRIORITID (Tham khảo thêm bài giảng cao học môn học cơ sở tri thức và ứng dụng. ĐHKHTN-TPHCM của GS.TSKH Hoàng Kiếm)