Machine Learning

Olá. Bom dia. Ontem teve início curso de aprendizagem de máquina. Achei incrível a aula, parabéns.
Já venho há tempo acompanhando CURSO_R e agora tenho oportunidade de aprender mais com vcs!
Então. Como os estatísticos, matemáticos e economistas que estudam as teorias e práticas na Universidades: Calc( 1,2 e 3), EDA, Int.Algebra.Linear, PO e todas as técnicas estatísticas paramétricas/não paramétricas, bayesiana e etc, veem no que diz respeito a robustez dos algoritmos em relação ao tamanho da amostra? Entendo que numa regressão linear simples ou múltipla, há suposições embasadas para se fazer uma regressão através MQO /EMV e análise de resíduos, multicolinearidade e outros tópicos. Já para ML esses conceitos não tem relevância?
Existem alguma discussão em relação a isso? Como por exemplo o bayesiano e frequentista!
Entendo que para uma estimativa numa regressão linear, caso o range da variável independente x for entre 10 e 200, então devo usar para estimar o y, variável resposta, somente valores compreendido nesse intervalo. E para ML supervisionado usando regressão, o valor do predict(predito) para ser achado não depende do intervalo contido na feature.
Vocês me entenderam!?

1 Curtida