modelagem matemática de sistemas de rastreamento de veículos
Transcrição
modelagem matemática de sistemas de rastreamento de veículos
1 MODELAGEM MATEMÁTICA DE SISTEMAS DE RASTREAMENTO DE VEÍCULOS Luiz Carlos Figueiredo Doutorando em Engenharia Elétrica pelo PPGEE – UFMG e professor do UnilesteMG. RESUMO Procura-se revisar as principais técnicas utilizadas para estimar a posição de veículos terrestres baseadas em modelos determinísticos e estocásticos. A melhoria da robustez do sistema a distúrbios e incertezas é abordada através da descrição de algumas técnicas que utilizam a integração–fusão de sensores fazendo uso do filtro de Kalman. Os modelos considerados, acrescidos de dinâmica e representados no espaço de estados, baseiam-se nas equações cinemáticas do sistema. A técnica de fluxo de imagem é revista, bem como o desenvolvimento de uma estrutura de modelo para utilização do estimador por mínimos quadrados estendido. Unitermos: modelagem de veículos; sistemas de controle; veículos autônomos. ABSTRACT It tries to revise the main techniques used to compute the position of terrestrial vehicles based on deterministic and stochastically models. The system robustness improvement to disturbances and uncertainties is approached through the description of some techniques that use the sensor integration–fusion making use of the Kalman filter. The considered models base on the kinematical equations of the system plus it dynamics are represented in the states space. The technique of image flow is reviewed, as well as the development of a model structure for use with a minimum square estimator. Keywords: vehicle models; control systems; autonomous vehicles. INTRODUÇÃO O rastreamento de veículos tem sido objeto de exaustivas pesquisas recentemente. As técnicas resultantes de tais pesquisas, assim que bem desenvolvidas, encontrarão aplicações práticas imediatas. O veículo do futuro será capaz de navegar com segurança e precisão, de forma autônoma, em vias expressas eletronicamente controladas. A exploração espacial já faz uso de algumas dessas tecnologias, assim como a exploração de petróleo em plataformas marítimas. O problema básico de controle de um veículo autônomo pode ser descrito como: dada a posição atual do veículo (posição e orientação) e a posição objetivada sobre um determinado eixo de coordenadas, deve-se determinar uma trajetória, garantir que o veículo siga este caminho, identificar e evitar qualquer obstáculo inesperado. Para navegar satisfatoriamente ao longo de uma trajetória pré-determinada, um veículo autônomo deve dispor de algum meio para determinar precisamente e consistentemente sua posição e orientação. Este trabalho concentra-se no estudo de alguns modelos utilizados para determinar ou estimar a posição do veículo baseado em informações que podem sofrer distorções ou conter 1 um alto grau de incerteza. Portanto, são descritos alguns tipos de dispositivos de sensoreamento de posição para um veículo, os tipos de veículos terrestres mais comuns e modelos matemáticos baseados em leis físicas, no fluxo ótico e na estimação recursiva de parâmetros e é abordada a integração ou fusão de sensores através da utilização do filtro de Kalman. DISPOSITIVOS DE SENSOREAMENTO DE POSIÇÃO PARA UM VEÍCULO O rastreamento e controle de veículos autônomos tem sido objeto de intensa pesquisa nos últimos anos. Tal interesse se justifica baseado na diversidade de dispositivos de sensoreamento de baixo custo disponíveis no mercado e avanços na área de robótica. Os dispositivos mais utilizados são sistemas inerciais de navegação, Global Positioning System (GPS), câmeras de vídeo externas ou embarcadas, sensores de distância por ultra-som, acelerômetros, odômetros, dentre outros. Sistemas de navegação inercial Sistemas de navegação inercial usam, tipicamente, um conjunto de sensores inerciais, basicamente acelerômetros e giroscópios. Os sistemas de acelerômetros e giroscópios estão interligados, podendo ser classificados como livres ou presos. Nos sistemas livres, os sensores estão encapsulados num dispositivo mecânico capaz de girar em três dimensões e o acelerômetro pode ser mantido num quadro de referência estável: os giroscópios medem a rotação angular em torno dos eixos e a resposta adequada é aplicada ao sistema. No sistema preso, a montagem do sensor inercial é fixa e não pode mover-se. Um quadro de referência estável é determinado por um programa de computador, usando as medições do giroscópio como entradas do algoritmo. Sistemas de posicionamento global O GPS é baseado no Navstar Global Positioning System, que consiste em uma constelação de 21 satélites (mais três reservas) girando na órbita da Terra a cada 12 horas, a uma altura de aproximadamente 10.900 milhas náuticas. Cada um dos seis planos orbitais contém quatro satélites e apresenta um ângulo de inclinação de 55º em relação ao plano da Terra no Equador. O controle do sistema é assistido por cinco estações de monitoramento ao redor do mundo. Estas estações avaliam continuamente o desempenho do sistema e carregam dados que serão difundidos aos usuários. Cada satélite transmite informações em duas freqüências portadoras diferentes: L1, de 1.575,42 mHz e L2, de l.227,60 mHz. A portadora L1 é modulada com os códigos Coarse Acquisition (C/A) e Formerly Precision (Y). A portadora L2 é modulada apenas com o código Y. A criptografia desse código garante que apenas os usuários com 1 chaves autorizadas ou equipamento equivalente recebam dados precisos de posição. Além disto, os militares introduzem intencionalmente erros epsilon e dither, coletivamente conhecidos como “disponibilidade seletiva”, para evitar que forças inimigas utilizem o GPS para fins militares. Sob estas condições, a precisão da posição pode chegar a até 80 metros. Para melhorar a precisão do sistema, um método conhecido como GPS Diferencial (DGPS) pode ser utilizado: um receptor GPS é instalado num local conhecido, denominado estação base e outro é colocado no veículo móvel. Usando os conhecimentos sobre a posição da estação base pode-se determinar o erro sistemático ou polarização a partir do sinal recebido. O erro será utilizado para calcular a posição correta do veículo. Utilizando o DGPS a precisão pode ser melhorada para 0,5 metros em 85% dos casos. Um método conhecido como GPS com Fase Diferencial (PDGPS), usando dois receptores, pode ser empregado para melhorar ainda mais a precisão. Em vez de usar pseudocódigos, a fase da portadora pode ser medida em ambos os canais L1 e L2, levando a precisão a centímetros. Sensores de vídeo e processamento de imagem Os recentes avanços tecnológicos nessa área permitem, agora, o efetivo uso de dados de visão em malhas de controle de um robô. Com relação a aplicações em robótica, isto irá permitir tratar incertezas e/ou variações no ambiente – por exemplo, compensar pequenos erros de posicionamento, pegar objetos que se movem sobre uma esteira etc. Com relação aos aspectos de imagem, é possível controlar o movimento da câmera, melhorando o reconhecimento, localização e inspeção do ambiente. INTEGRAÇÃO DE SENSORES Integração de sensores inerciais e PDGPS Sensores inerciais e PDGPS podem ser combinados utilizando o filtro de Kalman (WRIGHT LABORATORY, 1998). Ele estima os erros nos dados primários do sistema de navegação inercial processando as medições executadas pelo sistema PDGPS no algoritmo do filtro. Além de utilizar o erro estimado para solucionar o problema de navegação do veículo, com o tempo, o filtro constrói um modelo do erro para o sistema. Se, por um lapso ou má qualidade do sinal, os dados do PDGPS ficarem indisponíveis, esta estimativa assegura a precisão do sistema de navegação. Assim, o filtro de Kalman é uma forma de suavizar descontinuidades nos dados do PDGPS. A integração do sistema inercial com o PDGPS aumenta significativamente o desempenho do sistema pois ambos se complementam: enquanto o primeiro fornece dados contínuos, com 1 alta taxa de transmissão, o segundo limita a deriva do erro de posição através da aplicação do filtro de Kalman. Integração de odômetros e visão Pode-se utilizar abordagem semelhante para combinar informações do deslocamento do veículo e imagens de uma câmera para correção de erros usando o filtro de Kalman (MARCHANT et al., 1997, p. 167). Neste caso, as duas fontes de informação são utilizadas para manter uma estimativa da posição do veículo: enquanto um sistema de análise de imagem fornece uma medida do desvio do veículo em relação à trajetória – tanto o offset quanto a atitude –, odômetros usados em conjunto com o modelo cinemático do veículo fornecem uma medida de seu deslocamento. As informações da posição do veículo, provenientes destas duas fontes, são combinadas usando o Filtro de Kalman Estendido (EKF). O EKF produz uma estimativa da posição atualizada a cada 20 m. O filtro funciona em um modo preditivo–corretivo. Considera-se, aqui, que dados válidos do sistema de análise de imagem tenham sido recebidos no instante j e que a posição estimada do veículo ou seu estado neste instante é igual a x̂ j . No instante j + 1 o estado anterior é usado em conjunto com o deslocamento incremental das rodas, medido pelos odômetros entre o intervalo [j, j+1], para predizer, usando um modelo cinemático do veículo, a estimativa do estado atual xˆ ( j + 1) . Esse processo de predição é repetido a cada instante de tempo até que novos dados da visão estejam disponíveis no instante k. Neste ponto, o estado predito xˆ (k ) – baseado nos dados de visão e medidas de odometria anteriores – é corrigido usando os dados de visão y(k), gerando uma estimativa correta de xˆ (k ) . O processo de correção explora modelos estocásticos dos erros – presentes nas medições de odometria e análise de imagem – para obter uma combinação dos dados próxima ao ótimo, a partir das duas fontes. Além disto, essa informação estocástica permite identificar e descartar medições da análise de imagem que extrapolem o intervalo de confiança definido, neste caso, em 90% da predição baseada na odometria. Isto garante um grau de robustez a dados incorretos. Uma característica importante desse procedimento de estimação da posição é que muitos passos de predição podem ser efetuados entre correções sucessivas. Assim, a estimação da posição pode ser gerada e entregue ao sistema de controle a uma taxa de amostragem maior 1 do que a que o sistema de análise de imagem permite. Além disto, o filtro interpola sobre os dados de visão que forem perdidos ou que estejam errados. O filtro de Kalman tem sido citado como ferramenta básica para integração ou fusão de sensores em robótica (PEREIRA et al., 1999, p. 3317). TIPOS DE VEÍCULOS O modelo matemático deve considerar a topologia do sistema sob estudo. O rastreamento de veículos móveis pode compreender veículos e robôs que se deslocam no espaço aéreo, terrestre ou submarino. O foco principal deste trabalho são os veículos terrestres. Os veículos terrestres podem ter duas ou quatro rodas. Nos primeiros, o acionamento das rodas é individual, o que lhes permite girar na mesma posição: aciona-se uma roda num sentido e a outra no sentido reverso. Seu emprego em robótica é amplo e constituem a base dos robôs utilizados no futebol de robôs (PEREIRA et al., 1999, p. 3312). Os veículos de quatro rodas podem ter chassi único (monobloco) ou articulado – semelhante aos caminhões de grande porte. Em ambos, pode ocorrer o acionamento tanto das rodas dianteiras quanto das traseiras, com sistema de giro independente (direção) ou individual nas rodas dianteiras. Em veículos de quatro rodas, o sentido de movimentação é fundamental para determinar sua posição através de modelos. Portanto, se for articulado e estiver movimentando para frente ou para trás, tais informações devem ser consideradas pelo modelo. Esta restrição não se aplica aos veículos de duas rodas. MODELAGEM MATEMÁTICA Modelos baseados na cinemática do sistema O modelo mais simples encontrado na literatura (KONG; KOSKO, 1992, p. 340) para simulação da movimentação de um veículo, utiliza equações cinemáticas para representar seu movimento (ver Figura 1). Figura 1 – Diagrama do veículo simulado 1 Assim, se o veículo sair da posição (x, y) e for para a posição (x', y') em uma iteração, podemos usar: x' = x + r. cos(ϕ ' ) y ' = y + r. sen(ϕ ' ) ϕ'= ϕ + θ (1) onde r denota uma distância fixa de movimento do veículo; θ o ângulo das rodas em relação ao eixo do carro e ϕ o ângulo do eixo do carro em relação aos eixos de coordenadas do sistema. Jiang e Nijmeijer (1997, p. 1394) relatam uma abordagem semelhante para o caso de um robô móvel com rodas com dois graus de liberdade. A dinâmica do robô é descrita pelas seguintes equações diferenciais: x! = v. cos θ y! = v. sen θ θ! = w (2) onde v é a velocidade linear e w é a velocidade angular do robô móvel; (x, y) são as coordenadas cartesianas do centro de massa do veículo e θ é o ângulo entre a direção à frente e o eixo x. Sistemas como (2) e similares e outros sistemas não-holonômicos têm sido assunto de muitas pesquisas em andamento. Num sistema holonômico, qualquer direção de movimento desejada é realizável (SHKEL; LUMELSKY, 1997, p. 1220), o que não ocorre em um sistema não-holonômico, em que o número de variáveis de controle é menor que o dimensionamento do problema, como estacionar um veículo, por exemplo. O problema considerado aqui é o de rastreamento, isto é, deseja-se encontrar leis de controle para v e w tais que o veículo siga uma referência, com posição pr = (xr, yr, θr)T e entradas vr e wr. Chamando as coordenadas de erro como: x c cos θ y = − sen θ c θ c 0 sen θ cos θ 0 0 x r − x 0 y r − y 1 θ r − θ (3) a dinâmica do erro será: x! c = wy c − v + v r cos θ c y! c = − wx c + v r sen θ c θ!c = wr − w (4) Neste caso, desenvolve-se um algoritmo que garanta que o erro de rastreamento seja uniformemente limitado e convirja para zero (JIANG; NIJMEIJER, 1997, p. 1397). 1 Uma abordagem um pouco mais elaborada é realizada em Shkel e Lumelsky (1997, p. 1223). Chamando de (x, y) ∈ R2 a posição do veículo e de θ o ângulo entre o vetor velocidade V = (Vx, Vy) = ( x!, y! ) e o eixo x, o processo de planejamento da trajetória consiste no cálculo dos controles u = (p, q), que a cada passo define o vetor de velocidade e, eventualmente, o caminho (x(t), y(t)) como uma função do tempo. Considerando unitária a massa do veículo, as equações do movimento são apresentadas como: !x! = p cos θ − q sen θ !y! = p sen θ + q cos θ (5) O ângulo θ entre o vetor V = (Vx, Vy) e o eixo x é calculado como sendo: arctan(V x / V y )..........(V x ≥ 0) θ = arctan(V y / V x ) + π ....(V x < 0) A posição do veículo será determinada por: (6) 2 p cos θ (t ) + q sen θ (t ) 2 V (t ) + A 4p2 + q2 q cos θ (t ) − 2 p sen θ (t ) 2 y (t ) = − V (t ) + B 4p2 + q2 x(t ) = (7) onde: A = x0 − V02 (2 p cos θ 0 + q sen θ 0 ) 4 p2 + q2 B = y0 + V02 (q cosθ 0 − 2 p sen θ 0 ) 4p2 + q2 (8) e V (t ) = pt + V0 θ (t ) = θ 0 + q log(1 + tp / Vi ) p (9) Alguns modelos cinemáticos consideram apenas o deslocamento lateral do veículo em relação a uma determinada trajetória (HUNT et al., 1996, p. 1046; MARCHANT et al., 1997, p. 166). Um modelo linearizado no espaço de estados para a dinâmica lateral de um veículo (HUNT et al., 1996, p. 1046), é dado por (ver Figura 2): y! = v(ψ + β ) v ψ! = δ a 2k v k β! = − β + − δ mv mv a (10) 1 onde y é o deslocamento lateral em relação à trajetória; ψ é o ângulo do veículo em relação à trajetória; β é o ângulo de deslocamento lateral; δ é o ângulo entre a roda e o eixo do veículo; v é a velocidade; m é a massa do veículo; a é a base da roda e k é o coeficiente de atrito lateral. Figura 2 – Controle da posição lateral de um veículo Em contraste com outros métodos, considera-se que a aceleração lateral ψ!! pode ser desprezada. A saída do sistema é o deslocamento lateral y. A entrada de controle é o ângulo entre a roda e o eixo longitudinal do veículo δ. Este ângulo é geralmente estabelecido por um atuador do tipo integral. O sinal de controle u para o sistema está, portanto, relacionado com o ângulo entre a roda e o eixo do veículo por: δ! = u (11) Combinando as equações (10) e (11), a função de transferência entre a entrada u – fisicamente, a taxa de variação do ângulo da roda – é obtida como: 2v s + y ( s) k a (12) = . 2k 3 u ( s) m s + s mv É importante notar que, nesta função de transferência, os coeficientes dos polinômios dependem da velocidade v do veículo. Uma versão discreta de (12) tem a forma: y (t ) = q − d B(q −1 ; v(t )) u (t ) A(q −1 ; v(t )) (13) onde A e B são polinômios no operador q-1, cujos coeficientes dependem da velocidade v. Modelos baseados em imagens 1 Existe uma tendência de utilizar modelos baseados em imagem diretamente no sistema de controle (CHAUMETTE et al., 1991, p. 2248; PAPANIKOLOPOULOS et al., 1991, p. 857) A técnica utilizada baseia-se no fluxo ótico. Considera-se, no presente desenvolvimento, um modelo para a câmera com um quadro Rs anexado a ela (PAPANIKOLOPOULOS et al., 1991, p. 858), uma projeção em perspectiva e comprimento focal unitário. Um ponto P com coordenadas (Xs, Ys, Zs) em Rs é projetado sobre um ponto p no plano da imagem com coordenadas (x, y). Considerando que a câmera move-se em um ambiente estático com a velocidade translacional T = (Tx, Ty, Tz )T e com uma velocidade angular R = ( Rx, Ry, Rz)T com relação ao quadro da câmera Rs, as equações do fluxo ótico são dadas por: u = [x Ts T x − ] + [ xyR x − (1 + x 2 ) R y + yR s ] Zs Zs v = [y Ts T y − ] + [(1 + y 2 ) R x − xyR y − xR s ] Zs Zs onde u é a derivada de x (velocidade no eixo x) e v é a derivada de y (velocidade no eixo y). Agora, ao invés de considerar um objeto estático e uma câmera móvel, se for considerado uma câmera estática e um objeto móvel, os mesmos resultados podem ser obtidos, exceto pelo sinal trocado. Além disto, por razões de precisão, pode ser usada uma técnica baseada no casamento, também conhecida como a soma das diferenças quadráticas (SSD) do fluxo ótico. Para cada ponto pA = ( xA, yA) na imagem A queremos achar o ponto pB = (xA + u, yA + v), para o qual o ponto pA move-se na imagem B. Consideramos que a intensidade na vizinhança L de pA permanece sempre constante, tal que o ponto pB está dentro de uma área S de pA e que as velocidades estão normalizadas pelo tempo T para obter os deslocamentos. Assim, para o ponto pA, o estimador SSD seleciona o deslocamento d = (u, v) que minimiza a medida SSD: e( p A , d ) = ∑ m , n∈N [i A ( x A + m, y A + n) − I B ( x A + m + u , y A + n + v)] 2 onde u, v ∈ S, e N é uma área ao redor do pixel que estamos interessados. Está técnica pode ser melhorada usando o ajuste de subpixel e técnicas multigrade ao custo do aumento na complexidade computacional. A precisão também pode ser melhorada pela seleção adequada de uma pequena área N e tendo-se os campos de velocidade com poucos níveis de quantização. A formulação matemática do problema visual, apresentada em Papanikolopoulos (1991, p. 859), considera um alvo que se move em um plano com um traço, localizado no ponto P, o qual se deseja rastrear. A projeção deste ponto sobre o plano da imagem é o ponto p. 1 Considerando também uma vizinhança Sw de p no plano da imagem, o problema do rastreamento visual 2-D de um ponto com um único traço pode ser definido como: “encontre uma translação da câmera (Tx, Ty) com relação ao quadro da câmera que mantém Sw estacionário numa área So ao redor da origem do quadro da imagem”. Considerando que, na inicialização do processo de rastreamento, a área Sw é trazida para a origem do quadro de imagem e que o plano de movimento é perpendicular ao eixo ótico da câmera, o problema do rastreamento visual de um ponto com traço único também pode ser definido como “encontre a rotação da câmera (Rx, Ry) com relação ao quadro da câmera que mantém Sw estacionário numa área So ao redor da origem do quadro da imagem”. A segunda definição do problema do rastreamento visual não requer o cálculo da profundidade Zs do ponto P. Ambas as definições podem ser usadas simultaneamente. Considerando que o fluxo ótico do ponto p no instante de tempo kT é (u(kT), v(kT)) onde T é o tempo entre dois quadros consecutivos, pode ser mostrado que, no tempo (k + 1)T, o fluxo ótico será: u((k+1)T) = u(kT) + uc((k-d)T) v((k+1)R) = v(kT) + vc((k-d)T) (14) onde uc((k-d)T), vc((k-d)T) são as componentes do fluxo ótico induzidas pelo movimento de rastreamento da câmera e d é o fator de atraso. Por enquanto, o fator de atraso será considerado igual a zero. As equações (14) estão baseadas na consideração de que o fluxo ótico induzido pelo movimento do traço não muda no intervalo de tempo T. Portanto, T deve ser tão pequeno quanto possível. Para manter a notação simples e sem qualquer perda de generalização, as equações (14) serão usadas com k e (k + 1) ao invés de kT e (k + 1)T, respectivamente. Se a câmera rastreia o ponto do traço com translação Tx(k) e Ty(k) com relação ao quadro da câmera, então o fluxo ótico que é gerado pelo movimento da câmera com Tx(k) e Ty(k) vale: u c (k ) = − Tx (k ) Zs v c (k ) = − T y (k ) (15) Zs Considerando que, para o rastreamento visual 2-D a profundidade Zs permanece constante, quando o movimento de rastreamento da câmera é a rotação com Rx(k) e Ry(k), o fluxo ótico induzido pelo movimento da câmera será: u c (k ) = R x (k ) x(k ) y (k ) − R y (k )[ x 2 (k ) + 1] v c (k ) = R x (k )[ y 2 (k ) + 1] − R y (k ) x(k ) y (k ) 1 As equações (14) podem ser transformadas após alguns cálculos simples para a forma no espaço de estado como (as imprecisões do modelo são modeladas como ruído branco): (16) x(k+1) = Ax(k) + Buc(k) + Ed(k) + Hv(k) onde A = H = I2, B = E = T I2. x(k) ∈ R , uc(k) ∈ R , d(k) ∈ R e v(k) ∈ R2. O vetor x(k) = 2 2 2 (x(k), y(k))T é o vetor de estado; uc(k) = (uc(k), vc(k))T é o vetor da entrada de controle; d(k) = (u(k), v(k))T é o vetor de distúrbio exógeno e v(k) = (v1(k), v2(k))T é o vetor de ruído branco. O vetor de medição z(k) = (z1(k), z2(k))T é dado por: (17) z(k) = C.x(k) + w(k) onde w(k) é um vetor de ruído branco e C = I2. O vetor de medição é calculado usando o algoritmo SSD. O mesmo modelo pode ser usado para manter o traço do ponto estacionário na área Sr diferente da origem. Considerando que (rx, ry) é o centro desta área Sr, um modelo similar àquele previamente mencionado pode ser derivado pela transformação das variáveis de estado x(k) e y(k) num novo par de variáveis de estado, xN(k) e yN(k). As novas variáveis de estado são xN(k) = x(k) – rx e yN(k) = y(k) – ry. As matrizes A, B, C, E, H permanecem inalteradas sob a transformação. O algoritmo SSD calcula continuamente o vetor de deslocamento do traço do ponto a partir de sua posição desejada. Assim, tem-se a habilidade de compensar erros de medição anteriores que tendem a acumular. Considerando um alvo que se move num plano que é perpendicular ao eixo ótico da câmera, cuja projeção no plano de imagem é a área Sw, o problema do rastreamento visual 2-D de um simples objeto pode ser definido como: “encontre a translação da câmera (Tx, Ty) e rotação (Rz) com relação ao quadro da câmera que mantém Sw estacionário”. Considerando que o alvo gira em torno do eixo Z o qual, em k = 0, coincide com o eixo ótico da câmera, o modelo matemático deste problema na forma de espaço de estados será: x(k+1) = Ax(k) + Buc(k) + E.d(k) + H.v(k) (18) onde A=H=I3, B=E=TI3, x(k) ∈R , uc(k) ∈ R , d(k) ∈ R e v(k) ∈ R3. O vetor x(k) = (x(k), 3 3 3 y(k), θ(k))T é o vetor de estado; uc(k) = (uc(k), vc(k), Rz(k))T é o vetor da entrada de controle; d(k) = (u(k), v(k), w(k))T é o vetor de distúrbio exógeno e v(k) = (v1(k), v2(k), v3(k))T é o vetor de ruído branco. x(k), y(k), θ(k) são, agora, X, Y e componente de giro do erro de rastreamento, respectivamente. O vetor de medição z(k) = (z1(k), z2(k), z3(k))T é dado por: z(k) = C.x(k) + w(k) (19) onde w(k) é o vetor de ruído branco e C = I3. O vetor de medição é obtido de um modo ligeiramente diferente que no caso do rastreamento visual de um ponto com traço simples. Primeiro, o erro de rastreamento da 1 projeção dos dois pontos de traço diferentes no plano da imagem é computado usando-se o algoritmo SSD. Depois, um sistema algébrico de quatro equações – duas equações com o erro de rastreamento por ponto – é formulado. A solução do sistema são as componentes X, Y e de giro do erro de rastreamento. Se a projeção dos traços dos dois pontos sobre o plano da imagem não são as mesmas, garante-se que o sistema de equações tenha uma solução. Considera-se que cada um destes traços no instante t = 0 está alocado na sua posição desejada. Chaumette (1991, p. 2248) destaca dois métodos diferentes no controle baseado em imagens: o primeiro é baseado num servo-sistema de posicionamento 3D e o segundo é baseado em um servo-controle das características visuais. No método Ver e Mover, a tarefa consiste no direcionamento de uma câmera para uma determinada posição r*, o que implica numa locação e atitude desejada entre a câmera e a cena. A cada iteração da malha de controle, uma estimativa r^ da posição atual deve ser encontrada a partir dos dados da imagem. Este esquema trabalha em malha aberta com relação aos dados de imagem e não leva em consideração variações bruscas ou grandes variações da cena, imprecisões e incertezas que ocorrem durante o processamento. Além disto, tal abordagem precisa identificar perfeitamente todos os modelos 3D– geometria do sensor, modelos do ambiente e do robô. No método de rastreamento visual, a tarefa é diretamente especificada em termos da regulação da imagem. Isto requer o projeto de um conjunto s de características visuais, as quais são suficientes e relevantes para a execução da tarefa. Assim, uma malha fechada pode realmente ser executada a partir de dados da imagem, os quais permitem compensar as perturbações usando um esquema de controle robusto. Modelo Estocástico Recentemente, modelos estocásticos têm sido utilizados para estimação da posição de veículos com duas rodas e acionamento individual por roda, a exemplo dos utilizados no futebol de robôs Mirosot. Pereira (1999, p. 3313) descreve o modelo estocástico de tal sistema partindo de equações cinemáticas como: x k = x k −1 + V x / k −1T y k = y k −1 + V y / k −1T θ k = θ k −1 + wk −1T (20) 1 onde xk indica o valor de x no instante k; xk-1 indica o valor desta variável no intervalo de amostragem anterior; T, Vx e Vy são as componentes da velocidade em relação aos eixos x e y, respectivamente, e w é a velocidade angular do robô dada pela razão entre as diferenças de velocidade das duas rodas e a distância entre as mesmas. Considerando as equações dinâmicas determinadas pelo uso da Segunda Lei de Newton, chega-se ao modelo físico: T2 ] cos(θ k −1 ) m T2 + Fa 2|k −1 ) ] sen(θ k −1 ) m x k = x k −1 + [Vk −1T + ( a1U 1|k − d + a 2U 2|k − d + Fa1|k −1 + Fa 2|k −1 ) y k = y k −1 + [V k −1T + (a1U 1|k − d + a 2U 2|k − d + Fa1|k −1 θ k = θ k −1 + wk −1T + (a1U 1|k − d − a 2U 2|k − d ) T2 2I Como alguns parâmetros no modelo acima são difíceis de se obter na prática – como, por exemplo, atrito e velocidade através de imagem –, pode-se simplificar o modelo e representálo como um modelo auto-regressivo com entrada exógena (ARX). Para reduzir efeitos de polarização sobre os parâmetros do modelo a serem estimados, aplicou-se o método dos mínimos quadrados estendido, que considera o modelo como sendo do tipo: 10 x k = a1X x k −1 + a 2X x k − 2 + [b1X U 1|k − d + b2X U 2|k − d + d 1X ] cos(θ k −1 ) + ∑ c iX e x (k − i ) i =1 10 y k = a1Y y k −1 + a 2Y y k − 2 + [b1Y U 1|k − d + b2Y U 2|k − d + d 1Y ] sen(θ k −1 ) + ∑ ciY e y (k − i) i =1 10 θ k = a1Θθ k −1 + a 2Θθ k − 2 + b1ΘU 1|k − d + b2ΘU 2|k − d + d 1Θ + ∑ ciΘ eΘ (k − i) i =1 Portanto, o modelo físico só foi utilizado para determinação da estrutura do modelo estocástico. CONCLUSÃO Pode-se melhorar bastante a robustez de sistemas através da utilização do filtro de Kalman. Desta forma, promove-se a integração de sensores com diferentes taxas de amostragem e precisão, criando-se regiões ou envelopes em que pode-se garantir a precisão do sistema de posicionamento. A integração pode ser promovida a partir de sensores diferentes ou através de modelo– sensor. Neste último caso, usa-se um modelo para estimar a posição do veículo e sensores com uma boa precisão para validação–correção do sistema. Modelos físicos (determinísticos) têm precisão limitada e servem para simulações e determinação da estrutura de modelos estocásticos. Sistemas de medição de posição de 1 veículos estão sujeitos a uma grande variedade de distúrbios como: ausência temporária da informação de posição (GPS e Imagem), deslizamentos laterais devido a irregularidades do terreno ou presença de pedras, areia, óleos etc. – que podem não ser captados pelos sensores (odômetros) – e imperfeições em lentes etc. Portanto, modelos estocásticos devem ser preferidos aos determinísticos. Técnicas baseadas no fluxo de imagem têm merecido estudos por reduzir consideravelmente a carga computacional, em comparação às técnicas tradicionais de tratamento de imagem. REFERÊNCIAS BIBLIOGRÁFICAS CHAUMETTE, F.; RIVES, P.; ESPIAU, B. 1991, Positioning of a robot with respect to an object, tracking it and estimating its velocity by visual servoing. In: INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 1991, Sacramento. Proceedings… Sacramento: IEEE, 1991, p. 2248–2253. HUNT, K. J.; HAAS, R.; KALKKUHL, J. C. Local controller network for autonomous vehicle steering. Control Eng. Practice, Great Britain, v. 4, n. 8, p. 1045–1051, 1996. JIANG, Z. P.; NIJMEIJER, H. Tracking control of mobile robots: a case study in back stepping. Automatica, Great Britain, v. 33, n. 7, p. 1393–1399, 1997. KONG, S. G; KOSKO, B. Comparison of fuzzy and neural truck backer-upper control systems. In: ______. Neural networks and fuzzy systems. Englewood Cliffs: Prentice Hall, 1992. p. 339–361. ISBN 0-13-611435-0. MARCHANT, J. A.; HAGUE, T.; TILLET, N. D. Row-following accuracy of an autonomous vision-guided agricultural vehicle. Computers and Electronics in Agriculture, Great Britain: Elsevier Science, n. 16, p. 165–175, 1997. PAPANIKOLOPOULOS, N.; KHOSLA, P. K.;KANADE, T. Vision and control techniques for robotic visual tracking. In: INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, 1991, Sacramento. Proceedings… Sacramento: IEEE, 1991, p. 857–864. PEREIRA, G. A. S.; CAMPOS, M. F. M.; AGUIRRE, L. A. Data based dynamical modeling of vision observed small robots. In: CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS, 2000, Nashville. Proceedings … Nashville: IEEE, 2000, p. 3312-3317. SHKEL, A. M.; LUMELSKY, V. J. The jogger's problem: control of dynamics in real-time motion planning. Automatica, Great Britain, v. 33, n. 7, p. 1219–1233, 1997. WRIGHT LABORATORY AT TYNDALL AIR FORCE BASE. Autonomous Vehicle Development. Florida, 1998. Disponível em: <http://cimar.me.ufl.edu/~carl/af/position.html> Acesso em: 11 set. 1999.