Upang makilala kung ang isang modelo ay na-overfit, dapat na maunawaan ng isa ang konsepto ng overfitting at ang mga implikasyon nito sa machine learning. Ang overfitting ay nangyayari kapag ang isang modelo ay gumaganap nang mahusay sa data ng pagsasanay ngunit nabigong mag-generalize sa bago, hindi nakikitang data. Ang hindi pangkaraniwang bagay na ito ay nakakapinsala sa kakayahang hulaan ng modelo at maaaring humantong sa hindi magandang pagganap sa mga totoong sitwasyon sa mundo. Sa konteksto ng mga malalalim na neural network at estimator sa loob ng Google Cloud Machine Learning, may ilang indicator na makakatulong na matukoy ang overfitting.
Ang isang karaniwang senyales ng overfitting ay isang makabuluhang pagkakaiba sa pagitan ng pagganap ng modelo sa data ng pagsasanay at ng pagganap nito sa data ng pagpapatunay o pagsubok. Kapag na-overfit ang isang modelo, "sinasaulo" nito ang mga halimbawa ng pagsasanay sa halip na pag-aralan ang mga pinagbabatayan na pattern. Bilang resulta, maaari itong makamit ang mataas na katumpakan sa set ng pagsasanay ngunit nahihirapang gumawa ng mga tumpak na hula sa bagong data. Sa pamamagitan ng pagsusuri sa pagganap ng modelo sa isang hiwalay na pagpapatunay o set ng pagsubok, maaaring masuri ng isa kung naganap ang overfitting.
Ang isa pang indikasyon ng overfitting ay isang malaking pagkakaiba sa pagitan ng pagsasanay ng modelo at mga rate ng error sa pagpapatunay. Sa panahon ng proseso ng pagsasanay, sinusubukan ng modelo na mabawasan ang error nito sa pamamagitan ng pagsasaayos ng mga parameter nito. Gayunpaman, kung ang modelo ay nagiging masyadong kumplikado o nasanay nang masyadong mahaba, maaari itong magsimulang magkasya sa ingay sa data ng pagsasanay kaysa sa mga pinagbabatayan na pattern. Maaari itong humantong sa isang mababang rate ng error sa pagsasanay ngunit isang makabuluhang mas mataas na rate ng error sa pagpapatunay. Ang pagsubaybay sa takbo ng mga rate ng error na ito ay maaaring makatulong na matukoy ang overfitting.
Bukod pa rito, ang pagmamasid sa gawi ng pagkawala ng function ng modelo ay maaaring magbigay ng mga insight sa overfitting. Sinusukat ng function ng pagkawala ang pagkakaiba sa pagitan ng mga hinulaang output ng modelo at ang aktwal na mga target. Sa isang overfitted na modelo, ang loss function sa data ng pagsasanay ay maaaring patuloy na bumaba habang ang pagkawala sa validation data ay nagsisimulang tumaas. Ito ay nagpapahiwatig na ang modelo ay nagiging mas dalubhasa sa mga halimbawa ng pagsasanay at nawawala ang kakayahang mag-generalize.
Ang mga diskarte sa regularisasyon ay maaari ding gamitin upang maiwasan ang overfitting. Ang regularisasyon ay nagpapakilala ng isang termino ng parusa sa function ng pagkawala, na nagdudulot ng panghihina ng loob sa modelo na maging masyadong kumplikado. Ang mga pamamaraan tulad ng L1 o L2 regularization, dropout, o maagang paghinto ay maaaring makatulong na mabawasan ang overfitting sa pamamagitan ng pagdaragdag ng mga hadlang sa proseso ng pag-aaral ng modelo.
Mahalagang tandaan na ang overfitting ay maaaring maimpluwensyahan ng iba't ibang salik, kabilang ang laki at kalidad ng data ng pagsasanay, ang pagiging kumplikado ng arkitektura ng modelo, at ang mga napiling hyperparameter. Samakatuwid, napakahalaga na maingat na tasahin ang mga salik na ito habang nagsasanay at nagsusuri ng mga modelo upang maiwasan ang sobrang paglalagay.
Ang pagkilala sa overfitting sa mga deep neural network at mga estimator ay kinabibilangan ng pagsusuri sa performance sa validation o data ng pagsubok, pagsubaybay sa pagkakaiba sa pagitan ng pagsasanay at mga rate ng error sa validation, pagmamasid sa gawi ng loss function, at paggamit ng mga diskarte sa regularization. Sa pamamagitan ng pag-unawa sa mga tagapagpahiwatig na ito at pagsasagawa ng mga naaangkop na hakbang, mapapawi ng isa ang mga masasamang epekto ng overfitting at makabuo ng mas matatag at mapangkalahatan na mga modelo.
Iba pang kamakailang mga tanong at sagot tungkol sa Malalim na mga neural network at estimator:
- Maaari bang bigyang-kahulugan ang malalim na pag-aaral bilang pagtukoy at pagsasanay sa isang modelo batay sa isang malalim na neural network (DNN)?
- Nagagawa ba ng TensorFlow framework ng Google na pataasin ang antas ng abstraction sa pagbuo ng mga modelo ng machine learning (hal. sa pagpapalit ng coding sa configuration)?
- Tama ba na kung ang dataset ay malaki ang isa ay nangangailangan ng mas kaunting pagsusuri, na nangangahulugan na ang fraction ng dataset na ginamit para sa pagsusuri ay maaaring bawasan sa pagtaas ng laki ng dataset?
- Madali bang kontrolin (sa pamamagitan ng pagdaragdag at pag-alis) ng bilang ng mga layer at bilang ng mga node sa mga indibidwal na layer sa pamamagitan ng pagbabago ng array na ibinigay bilang nakatagong argumento ng deep neural network (DNN)?
- Ano ang mga neural network at malalim na neural network?
- Bakit tinatawag na malalim ang mga deep neural network?
- Ano ang mga pakinabang at disadvantages ng pagdaragdag ng higit pang mga node sa DNN?
- Ano ang nawawalang gradient na problema?
- Ano ang ilan sa mga disbentaha ng paggamit ng malalim na neural network kumpara sa mga linear na modelo?
- Anong mga karagdagang parameter ang maaaring i-customize sa DNN classifier, at paano sila nakakatulong sa pag-fine-tune ng malalim na neural network?
Tingnan ang higit pang mga tanong at sagot sa mga Deep neural network at estimator