- 27/07/2022
- Posted by: Marketing Digital
- Category: IA & AutoML
Não é de hoje que a Inteligencia Artificial (IA), clique para saber mais sobre as suas funções na indústria, e a Machine Learning (ML) - subcategoria de inteligência artificial que se refere ao processo pelo qual os computadores realizam funções sem serem especificamente programados para isso- desempenham um papel cada vez mais vital no desenvolvimento de tecnologia empresarial e apoiam uma ampla gama de iniciativas corporativas.
A grande problemática envolvida é que, conforme Machine Learning faz mais uso de redes neurais profundas (DNN), as empresas estão mais dependentes de uma tecnologia que os especialistas não entendem. Se os líderes de TI colocarem em campo uma tecnologia sem entender a base de sua operação, saiba como fugir do modismo das novas tecnologias, corre-se o risco de ter uma série de resultados ruins. Os sistemas podem ser inseguros no sentido de que podem ser tendenciosos, imprevisíveis e/ou produzir resultados que não podem ser facilmente compreendidos por seus operadores humanos. Esses sistemas também podem conter comportamentos que serão exploradas por adversários.
Quando o Machine Learning é aplicado a aplicativos de missão crítica, os CIOs e suas equipes de engenharia se deparam com um paradoxo: a escolha entre os melhores resultados que o Machine Learning pode oferecer versus o risco de resultados ruins. Isso pode até se tornar um dilema moral, se supormos que uma rede neural profunda- um ramo de aprendizado de máquina baseado em um conjunto de algoritmos que tentam modelar abstrações de alto nível de dados- for usada para processar imagens médicas e possa reconhecer certas formas de câncer melhor do que o médico típico. Seria moralmente obrigatório desenvolver essa tecnologia, que poderia ter efeitos positivos que salvam vidas, mesmo que não saibamos como ela alcança seus resultados.
Dessa forma, um objetivo de longo prazo de alguns pesquisadores de Machine Learning é desenvolver uma compreensão mais completa das redes neurais profundas. Assim surge o questionamento: o que os profissionais devem fazer agora e, especialmente quando resultados ruins puderem envolver riscos à vida e/ou propriedade?
A seguir, algumas abordagens sugeridas no estabelecimento de sistemas de Machine Learning com maior segurança e previsibilidade:
1-Identifique a gama de saídas do modelo que são consideradas seguras.
Uma vez que a faixa de saída segura tenha sido identificada, podemos retroceder no modelo para identificar um conjunto de entradas seguras cujas saídas sempre ficarão dentro do envelope desejado. Os pesquisadores mostraram que essa análise pode ser feita para certos tipos de modelos baseados em DNN.
2- Instale “grades de proteção na frente” do modelo.
Depois de saber a faixa segura de entradas, você pode instalar um software de segurança, conheça o H2O.ai, na frente do modelo para garantir que nunca sejam mostradas entradas que o levem a um local inseguro. Com efeito, a ferramenta mantém o sistema Machine Learning sob controle. Mesmo que não saibamos exatamente como o modelo chega a uma saída específica, saberemos que as saídas são sempre seguras.
3- Concentre-se em modelos que geram resultados previsíveis e os treine.
Além de manter as saídas dentro de uma faixa segura, também queremos saber se os modelos não produzem resultados que oscilam descontroladamente de uma parte do espaço de saída para outra. Para certas classes de DNNs, é possível garantir que, se uma entrada mudar apenas por uma pequena quantidade, a saída mudará proporcionalmente e não saltará de forma imprevisível para uma parte completamente diferente da faixa de saída.
Assim, os pesquisadores estão encontrando maneiras de alterar sutilmente o treinamento dos DNNs para que se tornem receptivos à análise acima, sem comprometer suas capacidades de reconhecimento de padrões.
4- Permaneça ágil.
Como este é um espaço de rápida movimentação, a chave é construir segurança na arquitetura de Machine Learning, mantendo a agilidade para evoluí-los e aprimorá-los à medida que novas técnicas se tornam disponíveis. A tarefa dos líderes de TI é garantir que os modelos de Machine Learning que eles desenvolvem e implantam estejam sob controle. Estabelecer segurança é uma etapa provisória importante, enquanto desenvolvemos um melhor entendimento de como funcionam as DNNs.