Funcoes Convexas Generalizadas
Mostrando 1-4 de 4 artigos, teses e dissertações.
-
1. Problemas de Otimização Quase Convexos: Método do Gradiente para Funções Escalares e Vetoriais / Optimization Problems Quasi-convex: Gradient Method for Vector and Scalar Functions
Neste trabalho faremos um estudo das propriedades de convergência do Método do Gradiente Projetado e do Método de Descida para otimização Multi-objetivo. No primeiro momento, o nosso problema de otimização será o de minimizar uma função real de nvariáveis, continuamente diferenciável e restrita a um conjunto de estrutura simples e acrescentaremos
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 27/10/2011
-
2. Problemas de Otimização Quase Convexos: Método do Gradiente para Funções Escalares e Vetoriais / Optimization Problems Quasi-convex: Gradient Method for Vector and Scalar Functions
Neste trabalho faremos um estudo das propriedades de convergência do Método do Gradiente Projetado e do Método de Descida para otimização Multi-objetivo. No primeiro momento, o nosso problema de otimização será o de minimizar uma função real de nvariáveis, continuamente diferenciável e restrita a um conjunto de estrutura simples e acrescentaremos
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 27/10/2011
-
3. Método do gradiente para funções convexas generalizadas / Gradiente method for generalized convex functions
Neste trabalho trataremos da convergência do método do gradiente para minimizar funções continuamente diferenciáveis e convexas-generalizadas, isto é, pseudo-convexas ou quase-convexas. Veremos que sob certas condições o método do gradiente, assim como o método do gradiente projetado, gera uma sequência que converge para minimizador quando existe
IBICT - Instituto Brasileiro de Informação em Ciência e Tecnologia. Publicado em: 16/12/2009
-
4. Método do gradiente para funções convexas generalizadas / Gradiente method for generalized convex functions
Neste trabalho trataremos da convergência do método do gradiente para minimizar funções continuamente diferenciáveis e convexas-generalizadas, isto é, pseudo-convexas ou quase-convexas. Veremos que sob certas condições o método do gradiente, assim como o método do gradiente projetado, gera uma sequência que converge para minimizador quando existe
Publicado em: 2009