CÁLCULO PROBABILÍSTICO DE PRODUTIVIDADES GLOBAIS
Annibal
Parracho Sant’Anna
Universidade Federal
Fluminense
tel: 5521-27291803 fax: 5521-2748731
e-mail: tppaps@vm.uff.br
RESUMO
Neste trabalho, se
desenvolvem critérios para avaliar a produtividade baseados na modelagem de
recursos e produtos com erro. Propostas para lidar com a falta de informação
anterior sobre a distribuição de probabilidades das perturbações estocásticas
são, também, desenvolvidas.
As medidas de produtividade
propostas são inicialmente construídas seguindo a perspectiva da Análise
Envoltória de Dados de Dados (DEA), de quantificar a proximidade do desempenho
ótimo observado. Na orientação para a maximização do produto, a produtividade
será medida pela probabilidade de a unidade de produção apresentar o volume
máximo em algum output e não apresentar o volume máximo em nenhum input. Na
orientação para a minimização do recurso, será medida a probabilidade de
apresentar o menor volume em algum input e não apresentar o menor volume em
nenhum output.
São também discutidas outras
formas de avaliar, apropriadas a situações em que não há motivo para se
orientar preferencialmente para um ou outro grupo de variáveis, em que há mais
de dois grupos de variáveis a considerar ou em que a eficiência é buscada em
termos de afastamento de patamares de pior desempenho, em vez de aproximação de
algum teto de desempenho ótimo.
Palavras-chave: análise envoltória de dados –
produtividade – aleatorização
ABSTRACT
Criteria
to evaluate productivity based on the modeling of resources and products with
error are developed here. Proposals to deal with the lack of previous
information on the distribution of probabilities of the random disturbances are
also developed.
The
measures of global productivity initially proposed are constructed following
the principles of Data Envelopment the Analysis (DEA), of measuring the
productivity by proximity of the observed excellent performances. In the
orientation to output maximization, the productivity will be measured by the
probability of the production unit to present the maximum volume of some
output, not presenting the maximum volume of any input. In the orientation for
input minimization, it will be measured by the probability to present the
smallest volume of some input and not to present the smallest volume of any
output.
Other
measurement strategies are then discussed, appropriate to situations where
there is no reason to prefer one or another group of variables, where there are
more than two groups of variables to consider or where efficiency is aimed in
terms of escaping from a floor of worst performance, instead of reaching a
ceiling of excellent performance.
1. Introdução
A Análise Envoltória de Dados é desenvolvida com um
objetivo explícito: ordenar unidades produtivas de acordo com a produtividade,
medida pela eficiência em extrair um maior agregado de produtos de um menor
agregado de recursos utilizados. Algumas características tornam a DEA um
instrumento atraente: a eficiência é medida realisticamente, em termos de
distância aos melhores desempenhos; para levar em conta que cada unidade pode
ter o seu próprio nicho de mercado, a agregação dos recursos e a agregação dos
produtos são efetuadas utilizando, para cada unidade avaliada, os pesos que lhe
sejam mais favoráveis; algoritmos distintos podem ser empregados para analisar
a situação em que as unidades de operação atendem a encomendas cujo volume é
determinado fora do seu campo de decisão, de modo que seus esforços para elevar
a produtividade são orientados para a minimização do volume de recursos
utilizados, e para analisar a situação oposta em que os recursos disponíveis
estão fora do campo de decisão da unidade produtiva e a produtividade é dada
pelo volume de produção extraída.
O algoritmo de cálculo da
eficiência típico da DEA foi desenvolvido por Charnes et alii (1978) e o conceito de eficiência que utiliza é o de Farrel
(1957). Dificuldades na interpretação dos resultados obtidos em certas
situações práticas conduziram ao desenvolvimento de algoritmos alternativos.
Estas dificuldades decorrem de alguns aspectos que não são levados em
consideração na abordagem inicial. O primeiro diz respeito às escalas de
operação das unidades comparadas. A inclusão na análise de uma unidade com
dimensões muito distintas das encontradas no restante do conjunto e que lhe
garantam vantagens de escala, resulta em que essa unidade passará a ocupar uma
posição de paradigma de produtividade que não se deve esperar possa ser, de
fato, atingido pelas outras unidades. Para evitar que se possa construir o
padrão de referência compondo apenas unidades observadas de dimensões sempre
menores ou sempre maiores que as da unidade avaliada foi desenvolvida a
abordagem de Banker et alii (1984). O
defeito desta saída é que todas as unidades com valores extremos em alguma
variável passam a receber necessariamente a medida de eficiência máxima.
A segunda dificuldade diz
respeito à liberdade de especialização. Se for conveniente para melhorar a
avaliação da unidade, é permitido atribuir, na composição do critério de
eficiência que lhe é aplicado, peso nulo a qualquer variável, de tal sorte que
seu desempenho quanto a tal variável em nada influencia a sua medida de
produtividade. A alternativa mais conhecida para incluir na comparação as
parcelas de produtos e recursos desprezadas na comparação com o agregado formado
para servir como paradigma de eficiência da unidade no conceito de Farrel é
medir a eficiência através da soma das folgas. Isto conduz ao chamado modelo
aditivo (Charnes et alii, 1985). O
ônus envolvido nesta e outras alternativas desenvolvidas para lidar com as
folgas está em passar a exigir, contrariando o princípio de livre escolha dos
pesos, que se determine externamente a escala de importância que se deseja
atribuir a cada produto e recurso.
Estes aspectos não limitam a
aplicabilidade da metodologia, visto que para a correta interpretação dos
resultados basta o exame cuidadoso dos dados, em especial das unidades
selecionadas para servir de referência. Uma terceira dificuldade decorre de a
análise não levar em conta a possibilidade de erros aleatórios nas medidas dos
recursos e produtos. Esta dificuldade é mais séria porque, ao contrário da
especialização ou das diferenças de dimensões, as distorções que a influência
das perturbações estocásticas pode provocar nos resultados não são evidenciadas
por nenhum sinal externo. A fronteira de excelência eventualmente gerada por
desempenhos extremos que sejam efeito de perturbações grosseiras das medidas em
nada se distingue da fronteira gerada por observações medidas com precisão. Para lidar com essa dificuldade, há
alternativas, ora envolvendo a modelagem paramétrica da fronteira (para uma
completo levantamento, veja-se Kumbhakar e Lovell, 2000), ora tratando
estatisticamente o vetor de medidas de eficiência (Simar e Wilson, 1998).
Neste trabalho, se desenvolvem critérios para a
eficiência baseados na modelagem das variáveis com erro. Ao contrário de
abordagens anteriores, enfatizamos, aqui, em vez da completa parametrização das
distribuições, que exigiria que dispuséssemos de repetições suficientes para poder
estimar com precisão os parâmetros, a combinação de medidas aproximadas para
probabilidades calculadas relativamente a cada recurso e a cada produto, de tal
sorte que qualquer erro nas aproximações tenha sua influência no resultado
final diluída.
Mais importante nesta
abordagem que a correta atribuição de probabilidades é a forma como estas
probabilidades são combinadas para gerar as medidas de eficiência. Neste
sentido, ainda que a indisponibilidade de dados nos impeça de modelar
corretamente as distribuições, podemos chegar a medidas de eficiência mais
confiáveis que as extraídas dos dados tratados como determinísticos. A idéia
básica é, embora ainda permitindo que a medida de eficiência de qualquer
unidade de produção seja fortemente elevada pelo desempenho extremo seja na
minimização do volume de algum recurso seja na maximização do volume de algum
produto, amenizar a influência desses pontos extremos, levando em conta o
desempenho de mais variáveis e de mais unidades de observação. Enquanto a fronteira
de excelência tende a ser formada por desempenhos raros, a comparação em
variáveis em que a unidade não apresente desempenho extremo e a comparação com
um conjunto de observações com valores mais comuns torna o procedimento de
avaliação mais resistente a erros aleatórios.
As medidas de eficiência
aqui propostas são, basicamente, na orientação da maximização do produto, a
probabilidade de a unidade de produção apresentar o volume máximo observado em
algum output e não apresentar o volume máximo em nenhum input e, na orientação
para a minimização do recurso, a probabilidade de a unidade de produção
apresentar o menor volume em algum input e não apresentar o menor volume em
nenhum output.
Variantes destas medidas que
se afastam mais do critério básico da DEA são também discutidas aqui e abrangem
os casos em que não se lida com variáveis associadas entre si como recursos e
produtos. Uma delas é a probabilidade de apresentar o melhor desempenho em
algum critério, seja através da maximização do volume de algum output seja
através da minimização do volume de algum input, e aplica-se melhor ao caso de
uma coleção de critérios independentes. Outra alternativa é mais bem aplicável
ao caso em que se deseja otimizar o desempenho em cada um de dois ou mais
blocos de critérios, sejam estes blocos constituídos um de recursos e outro de
produtos ou constituídos de outra forma qualquer. Neste caso, a medida global
seria dada pela probabilidade de apresentar o melhor desempenho em pelo menos
um critério de cada bloco.
Há situações como a de muitos segmentos do setor
público em que o referencial está colocado em um desempenho pior possível ou em
patamares estabelecidos pela sociedade para o pior desempenho aceitável. A
partir desse patamar se realizam os progressos em relação à qualidade. Nestes
casos, nas variáveis mais difíceis de administrar eficientemente, deverá
aparecer assimetria, com concentração e valores próximo ao patamar de
eficiência mínima permitida. Com a rarefação da distribuição no lado eficiente,
torna-se mais seguro medir o desempenho pelo afastamento da fronteira de
ineficiência que pela proximidade da fronteira de eficiência. Por exemplo, um
valor equivocadamente registrado próximo daquele de uma unidade de fato muito
mais eficiente que as demais afetará fortemente sua probabilidade de atingir a
fronteira de eficiência, enquanto afetará muito pouco sua probabilidade de
chegar à fronteira de ineficiência. Um critério adequado a esta situação
deverá, então, basear-se nas probabilidades de se afastar da fronteira de
ineficiência. E a medida global será dada pelo produto das probabilidades de
não apresentar o pior desempenho.
Além de lidar com as duas
ultimas dificuldades da DEA acima referidas, ao levar em conta o caráter
aleatório e impedir que o desempenho em algumas variáveis seja completamente
desprezado, esta abordagem tende a atribuir menos medidas de eficiência
elevadas às unidades de dimensão muito pequena ou muito grande em relação ao
conjunto analisado. De fato, unidades com valores extremos terão suas medidas
de eficiência calculadas através do produto de probabilidades muito próximas de
zero por probabilidades muito próximas de 1, enquanto as unidades com valores
mais próximos da mediana terão suas medidas de eficiência calculadas através do
produto de fatores mais homogêneos.
2. Probabilidades de Pertencer à Fronteira
Uma forma probabilística de
compor critérios atribuindo igual importância a todos consiste em usar como
medida global a probabilidade de a unidade avaliada ser a preferida por pelo
menos um dos critérios considerados. No caso de unidades de decisão utilizando
recursos para gerar produtos, a medida de eficiência deverá, então, ser tanto
maior quanto maior a probabilidade de maximizar o volume produzido de algum
output ou minimizar o volume utilizado de algum input. Seguindo este princípio,
representando por Pij a probabilidade da opção j-ésima ser a
preferida pelo critério i-ésimo, a medida final da preferência por essa opção
será 1- P(1-Pij), sendo i
o índice do produtório, variando ao longo de todos os critérios considerados.
Assim, uma unidade de produção será eficiente na medida em que minimize a
utilização de um recurso ou maximize o volume ofertado de um produto. Na
perspectiva da DEA, de minimizar razões insumo/produto, para ter todas as
variáveis orientadas no mesmo sentido, podemos substituir o objetivo de
maximizar o volume de um produto pelo de minimizar o inverso desse volume. Da
mesma forma, podemos substituir a minimização dos valores dos inputs pela
maximização dos inversos desses valores.
Ao
colocar lado a lado recursos e produtos, esta medida não avalia, entretanto,
propriamente, a produtividade. Segundo ela, as unidades de produção se
aproximam do desempenho ideal, elevando o volume de qualquer output ou
reduzindo o volume de qualquer input, isoladamente. Isto é, basta que a unidade
seja grande na produção de um output ou pequena no consumo de um input para que
sua medida de eficiência se aproxime da eficiência máxima. Como todos os
recursos e produtos são considerados, razões insumo/produto pequenas resultarão
em elevada medida de eficiência, mas esta condição não é necessária.
Para
que a medida probabilística de eficiência não possa premiar o esforço apenas em
aumentar a produção ou inversamente o esforço em apenas em reduzir o consumo,
basta que valorize separadamente alta probabilidade de maximização de algum
output e de minimização de algum input. A probabilidade de a unidade de
produção j-ésima apresentar o valor máximo de algum output no conjunto
examinado é dada por 1- P(1-Pij), onde,
como antes, Pij representa a probabilidade de essa unidade ser a que
oferece o maior volume do produto i-ésimo, mas a variável do produtório, i,
agora varia ao longo apenas dos produtos considerados. Da mesma forma, a
probabilidade dessa unidade de produção apresentar o valor mínimo de algum
input no conjunto examinado é dada por 1- P(1-Pij), onde,
como antes, Pij representa a probabilidade de essa unidade ser a que
utiliza o menor volume do recurso i-ésimo, mas i agora varia ao longo apenas
dos recursos considerados. Assim, a produtividade será medida pelo produto [1- P(1-Pkj)] * [1- P(1-Plj)] onde no primeiro
produtório temos um fator para cada recurso, representado pelo índice k, e no
segundo produtório um fator para cada produto, representado pelo índice l.
Há situações em que o
importante é não ultrapassar tetos orçamentários para a utilização de nenhum
recurso nem negligenciar a demanda por nenhum produto. A eficiência, nesse
contexto, pode ser medida pela probabilidade de apresentar o maior valor em
cada produto e o menor valor em cada recurso. Esta medida, entretanto, tem o
defeito de referir toda comparação ao desempenho melhor possível, o qual tem
considerável probabilidade de ser afastado dos demais por erros aleatórios ou
sistemáticos. Uma medida mais resistente à influência de desvios dessa natureza
é dada pela probabilidade de não ser o pior em nenhuma variável, isto é, pela
probabilidade de não atingir o valor mais alto em nenhum input e não atingir o
valor mais baixo em nenhum output. Formalmente, esta medida será dada por P(1-Pij), onde i é o índice do
produtório e varia ao longo de todo o conjunto de variáveis representativas
tanto de recursos quanto de produtos considerados e Pij indica a
probabilidade de atingir o valor mais alto observado para a variável i-ésima se
esta representar um recurso ou o valor mais baixo se esta representar um
produto.
Ao
levar em conta, para cada variável, a probabilidade de um evento mais fácil de
ocorrer, este critério discrimina mais. Além disto, reduz a possibilidade de
alguma unidade apresentar boas medidas de desempenho apenas por ter tamanho
muito maior ou muito menor que o das demais, tanto nos recursos quanto nos
produtos.
Além
dessas alternativas, podemos escolher medidas probabilísticas mais coerentes
com as orientações para maximizar a produção de algum produto, cuidando, do
lado oposto, apenas para que os volumes de recursos utilizados não ultrapassem
limites compatíveis com a prática mais freqüente, ou para minimizar o consumo
de algum recurso, sem, também, exigir maximização da produção, mas cuidando
apenas para que os volumes produzidos não fiquem abaixo de patamares medianos,
compatíveis com a prática mais freqüente.
No primeiro caso, a medida de eficiência probabilística orientada para a
maximização do output será dada por uma expressão envolvendo dois produtórios, P(1-Qkj) * [1- P(1-Plj)], onde o segundo
produtório é como o do parágrafo anterior, mas, no primeiro, aparece Qkj
representando a probabilidade de o volume utilizado do k-ésimo recurso ser o
maior de todos. Analogamente, a medida de eficiência probabilística orientada
para a minimização do input será fornecida por uma expressão envolvendo outros
dois produtórios, [1-P(1-Pkj)] *P(1-Qlj), onde agora é no segundo
produtório que aparecem novos fatores Qlj representando as
probabilidades de os volumes produzidos serem mínimos.
3. Aleatorização dos Volumes de Recursos e Produtos
Com a introdução de erros de medida aleatórios, os volumes
de inputs e outputs inicialmente apresentados de forma determinística passam a
ser tratados como estimativas das médias de distribuições de probabilidades
independentes. Pode-se derivar, do conjunto de valores observados, estimativas
para outros parâmetros dessas distribuições.
É difícil dispor de informação a priori sobre a
distribuição das perturbações aleatórias e, nas primeiras aplicações, não é
comum dispor de um número de observações em cada unidade suficiente para, mesmo
assumindo as habituais hipóteses de normalidade da distribuição e independência
entre as observações, estimar, com precisão satisfatória, suas variâncias.
Nesta seção, é desenvolvida uma sistemática para modelar as parcelas
probabilísticas das medidas de inputs e outputs, com base na amostra de valores
observados em todas as unidades examinadas.
Como usual, assumimos
perturbações independentes e de média zero e com distribuição completamente
determinada pelos dois primeiros momentos. Para que a abordagem probabilística
seja mais efetiva, convém que se facilite ao máximo a troca de postos entre
opções próximas. Com este objetivo, a melhor escolha é a da distribuição
uniforme. Adiante, serão comparados resultados obtidos assumindo a hipótese de
distribuição uniforme com a, mais comum, hipótese de distribuição normal.
Para modelar a dispersão, a
hipótese básica que aqui se assume é que, se duas unidades de produção
quaisquer pertencem ao conjunto analisado, existe uma probabilidade não nula de
inversão entre as suas posições relativamente ao volume observado de cada
recurso ou produto e esta probabilidade deve ser pequena quando se consideram
as unidades com o maior e o menor valor. Estabelecer quão pequena deve ser esta
probabilidade e como cresce com a proximidade entre as medidas observadas
completa a modelagem estatística.
Se o número de unidades comparadas não é muito pequeno,
probabilidade pequena ou probabilidade zero de inversão entre a primeira e a
última faz muito pouca diferença quando se vão calcular, a seguir, probabilidades
de pertencer à fronteira. Assim, poderíamos simplificar, tomando a amplitude
observada entre as medidas registradas como estimativa para a amplitude da
distribuição de cada medida. Entretanto, para levar em conta, de um lado, que
volumes de recursos e produtos costumam ser registrados em valores inteiros com
a escala em que as medidas são lançadas refletindo sua precisão, e, de outro,
que aumentando o tamanho do universo de unidades de produção examinadas se
reduz a probabilidade de se ter deixado fora do conjunto observado valores mais
afastados, é preferível adicionar à amplitude observada uma pequena parcela
proporcional a algum parâmetro de locação e decrescente com o tamanho da
amostra. No que segue, esta parcela será dada pelo quociente do menor valor
observado pelo número de unidades observadas. A estimativa assim produzida
corresponde ao valor da amplitude amostral resultante de acrescentarmos ao
conjunto uma unidade de produção fictícia, com volumes inferiores aos menores
volumes observados, distando destes, exatamente, a n-ésima parte dos mesmos, n
sendo o tamanho da amostra.
Formalmente, dado o volume
observado Rij na unidade de produção j-ésima do recurso ou produto
i-ésimo, pode-se resumir as hipóteses estabelecidas nos parágrafos acima dizendo
que cada um desses volumes é uniformemente distribuído em torno do respectivo
registro Rij e estas distribuições uniformes são independentes,
todas aquelas relativas a um mesmo recurso ou produto tendo a mesma amplitude,
igual, para o recurso ou produto i-ésimo, ao máximo das diferenças Rij1
– Rij2, para j1 e j2 variando ao longo de
todas as unidades de produção avaliadas, acrescido de Riji/n onde ji
designa a unidade que apresenta o menor valor na i-ésima variável.
Poderíamos,
também, seguir a prática usual de derivar estimativa para o desvio padrão da
perturbação de cada medida do desvio padrão amostral, sendo a amostra, no caso,
constituída pelos valores observados no conjunto das unidades de produção examinadas.
O fato de que os valores esperados das variáveis na amostra são diferentes deve
fazer este procedimento superestimar a dispersão. Por outro lado, para a
distribuição normal, para a qual o desvio padrão é o parâmetro de dispersão que
ocorre naturalmente, o gradual decréscimo da densidade com o afastamento do
centro exige, para facilitar adequadamente as inversões de posição, que a
relação entre a dispersão atribuída a cada medida e a dispersão observada entre
as medidas iniciais seja maior. Assim, quando se assumir normalidade,
estimar-se-á o desvio padrão de cada observação pelo desvio padrão amostral.
Pode-se, ainda, abandonar a
hipótese de idêntica dispersão e ampliar ou reduzir o desvio padrão de uma ou
outra medida para refletir uma certeza maior ou menor sobre as medidas
referentes a unidades de produção mais bem ou menos bem conhecidas. A modelagem
da dispersão é, não obstante, em geral, uma possibilidade difícil de explorar.
O uso das probabilidades
assim estabelecidas para calcular, apenas, probabilidades de ocupar posições
limites na comparação com outras unidades diminui a importância da correta
especificação da forma da distribuição. Em Sant’Anna e Sant’Anna (2001) se
desenvolve uma sustentação empírica de que o produto de probabilidades envolvido
resulta em resistência à influência da forma de medir as variáveis maior que
aquela fornecida à DEA pela invariância com as unidades de medida. De fato,
verifica-se que, enquanto a livre variação dos pesos na DEA torna seus
resultados invariantes apenas em relação a mudanças proporcionais de escala, o
cálculo da probabilidade de ocupar posição na fronteira é menos influenciado
pelos valores das observações que pela ordem das posições das unidades.
Outro aspecto a ser levado
em conta na modelagem das dispersões é que idêntico desvio padrão implica em
coeficiente de variação maior para as medidas de menor valor. Assim, assumindo
idêntica distribuição para as perturbações se está, de fato, proporcionalmente,
atribuindo menor dispersão às medidas de volumes de inputs e outputs maiores.
Para assumir que as medidas mais importantes são tomadas com mais cuidado e
fazer corresponder menores dispersões aos valores mais próximos da fronteira de
excelência, sempre se pode trabalhar com os inputs invertidos e transformar em
maximização do inverso do input o objetivo de minimização do input. Note-se que
a idéia de inverter valores de variáveis opostas não é nova nesta área de
aplicação, já estando presente nas razões insumo/produto dos primeiros modelos
da DEA.
Uma
última observação sobre a construção das distribuições é que, em vez do patamar
oferecido pela unidade com pior desempenho na variável, poderíamos usar um
patamar absoluto para as comparações, zero sendo o valor mais natural.
Entretanto, o patamar mais alto possível fornece uma informação mais
fundamentada para a estimação da amplitude.
4. Exemplo.
Para
ilustrar a flexibilidade da abordagem probabilística, esta sessão analisa uma
situação simples: cinco unidades de produção utilizando dois recursos para
produzir dois produtos. Em uma segunda etapa, os valores de uma dessas unidades
são replicados. O acréscimo de uma
unidade de produção nessas condições não altera a envoltória e,
conseqüentemente, não pode alterar as medidas de eficiência na DEA. Entretanto,
aumenta a informação disponível, especialmente quanto à confiabilidade dos
valores observados, que é avaliada, na sistemática acima proposta, pelos
parâmetros de dispersão do universo de unidades conhecidas. Através do efeito
dessas medidas de dispersão sobre as probabilidades de troca de posição, as
avaliações finais de eficiência são, então, alteradas.
O
conjunto de unidades comparadas é constituído de uma unidade com bom
desempenho, uma com desempenho ruim, outra com desempenho bom a menos de um
input com volume muito elevado, outra com desempenho ruim a menos de um input
com volume baixo e a última com desempenho intermediário. Esta última é
replicada no segundo conjunto.
NOME
|
RECURSO1 |
RECURSO2 |
PRODUTO1 |
PRODUTO2 |
Boa |
3 |
3 |
3 |
3 |
Boa
a menos de 1 |
2 |
5 |
3 |
3 |
Regular |
3 |
3 |
2 |
2 |
Ruim
a menos de 1 |
5 |
3 |
2 |
2 |
Ruim |
3 |
3 |
1 |
1 |
Replicada |
3 |
3 |
2 |
2 |
As
tabelas 2 e 3 apresentam os desempenhos das cinco unidades iniciais, segundo
cada um dos critérios probabilísticos propostos, primeiro supondo que são as
únicas unidades observadas e depois se acrescentando a replicação da terceira. Os
resultados na tabela 2 são obtidos assumindo para as perturbações distribuição
uniforme de amplitude igual à amplitude observada no conjunto acrescida de 1/5
ou 1/6 do menor valor, conforme se inclua ou não a replicação no conjunto de
unidades. Na tabela 3, a distribuição adotada é a normal de desvio padrão igual
ao desvio padrão no conjunto de valores observados para a variável.
|
NOME |
MINIMIZANDO RECURSO |
MAXIMIZANDO PRODUTO |
RECURSO E PRODUTO |
ALGUMA ÓTIMA |
NENHUMA PÉSSIMA |
|||||||||||||||||||||
|
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
|
||||||||||||||||
Boa |
0,32 |
0,26 |
0,65 |
0,64 |
0,22 |
0,18 |
0,80 |
0,77 |
0,92 |
0,93 |
|
||||||||||||||||
Boa
a menos de 1 |
0,73 |
0,69 |
0,05 |
0,05 |
0,52 |
0,48 |
0,92 |
0,90 |
0,07 |
0,08 |
|
||||||||||||||||
Regular |
0,29 |
0,24 |
0,08 |
0,07 |
0,03 |
0,02 |
0,38 |
0,32 |
0,85 |
0,86 |
|
||||||||||||||||
Ruim
a menos de 1 |
0,23 |
0,19 |
0,02 |
0,02 |
0,02 |
0,02 |
0,32 |
0,26 |
0,17 |
0,20 |
|
||||||||||||||||
Ruim |
0,00 |
0,00 |
0,00 |
0,00 |
0,00 |
0,00 |
0,32 |
0,26 |
0,01 |
0,01 |
|
||||||||||||||||
|
NOME |
MINIMIZANDO RECURSO |
MAXIMIZANDO PRODUTO |
RECURSO E PRODUTO |
ALGUMA ÓTIMA |
NENHUMA PÉSSIMA |
|||||||||||||||||||||
|
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
SEM RÉPLICA |
COM RÉPLICA |
|
||||||||||||||||
Boa |
0,31 |
0,26 |
0,53 |
0,53 |
0,21 |
0,17 |
0,75 |
0,72 |
0,76 |
0,81 |
|
||||||||||||||||
Boa
a menos de 1 |
0,56 |
0,57 |
0,17 |
0,16 |
0,39 |
0,37 |
0,86 |
0,84 |
0,24 |
0,25 |
|
||||||||||||||||
Regular |
0,27 |
0,23 |
0,16 |
0,14 |
0,07 |
0,04 |
0,47 |
0,39 |
0,67 |
0,73 |
|
||||||||||||||||
Ruim
a menos de 1 |
0,21 |
0,18 |
0,06 |
0,05 |
0,05 |
0,03 |
0,41 |
0,34 |
0,25 |
0,27 |
|
||||||||||||||||
Ruim |
0,03 |
0,03 |
0,03 |
0,02 |
0,01 |
0,01 |
0,36 |
0,29 |
0,08 |
0,09 |
|
||||||||||||||||
Verifica-se
que há uma variação muito maior dos resultados quando se muda o foco de
interesse do que quando se muda o modelo para a distribuição de probabilidades
das perturbações. A inclusão de uma unidade adicional resulta em maior
dificuldade de atingir a posição de fronteira e conseqüentemente em redução das
medidas de eficiência que exigem aproximação da posição de melhor de todos e
elevação da que mede afastamento da posição de pior de todos. Comparando os
resultados obtidos com a distribuição uniforme com aqueles obtidos com a
distribuição normal, nota-se ampla concordância entre os resultados. Com a
distribuição normal, percebe-se maior proximidade entre as medidas de
eficiência ao longo das unidades, ainda que os desvios-padrão observados na
tabela 1 sejam menores que os estimados a partir das amplitudes, usando a
relação d2 entre o valor esperado da amplitude amostral e o desvio
padrão populacional.
As tabelas 4 e 5 permitem
comparar com as eficiências radiais da DEA as medidas de eficiência relativa
obtidas dividindo pela maior as eficiências segundo cada critério. Para fixar,
dado o pequeno afastamento entre os resultados produzidos pelas diversas
alternativas, nos limitamos a apresentar, na tabela 4, as eficiências relativas
do caso sem replicação e assumindo normalidade. A tabela 5 apresenta as
eficiências relativas da DEA. A comparação dos resultados apresentados nas duas
tabelas permite aquilatar a variedade de informação fornecida pela aplicação
dos critérios probabilísticos. O fato mais notável é a perda da posição de benchmark da unidade boa a menos de 1
input quando se aplicam os critérios envolvendo a exigência de não maximização
do input em vez da sua minimização. Este tipo de exigência não é contemplado na
DEA.
NOME |
MINIMIZANDO RECURSO |
MAXIMIZANDO PRODUTO |
RECURSO E PRODUTO |
ALGUMA ÓTIMA
|
NENHUMA PÉSSIMA |
Boa |
55% |
100% |
55% |
88% |
100% |
Boa
a menos de 1 |
100% |
32% |
100% |
100% |
32% |
Regular |
48% |
31% |
17% |
55% |
82% |
Ruim
a menos de 1 |
37% |
11% |
13% |
47% |
32% |
Ruim |
6% |
5% |
3% |
42% |
10% |
NOME |
ORIENTADA PARA RECURSO |
ORIENTADA PARA PRODUTO |
||
|
CRS |
VRS |
CRS |
VRS
|
Boa |
100% |
100% |
100% |
100% |
Boa
a menos de 1 |
100% |
100% |
100% |
100% |
Regular |
67% |
100% |
67% |
67% |
Ruim
a menos de 1 |
67% |
100% |
67% |
67% |
Ruim |
33% |
100% |
33% |
33% |
5. Conclusão.
Desenvolve-se
neste artigo uma abordagem probabilística para a comparação de desempenhos. Em
particular, é discutida a situação de falta de informação anterior sobre a
distribuição de probabilidades das perturbações estocásticas. Os resultados obtidos no exemplo apresentado
evidenciam, de um lado, a variedade de alternativas de análise oferecidas e de
outro a robustez da metodologia relativamente à escolha da distribuição de
probabilidades para as perturbações.
Referências
Banker, R. D., Charnes, A.
H. e Cooper, W. W. (1984). Some Models for estimating
Technical and Scaling Inefficiencies in Data Envelopment Analysis, Management Science, 30, 1078-1092.
Charnes,
A., Cooper, W. W. e Rhodes. E. (1978). Measuring the Efficiency of Decision
Making Units, European Journal of Operations
Research, 2: 429-444
Charnes, A. H., Cooper, W. W., Golany, B., Seiford, L. M. e Stutz, J.
(1985). Foundations of data envelopment analysis for Pareto-Koopmans efficient
empirical production functions, Journal
of Econometrics, 30, 91-107
Farrell, M.J. (1957). The measurement of productive efficiency, Journal of the Royal Statistical Society,
120, 449-460.
Kumbhakar, S. C. e Lovell, C. A. K., Stochastic Frontier Analysis,
Cambridge University Press, Cambridge, U. K., 2000.
Sant’Anna, A. P. e Sant’Anna,
L. F. (2001). Randomization as a Stage in Criteria Combining,
in Production and Distribution for the 21st Century, Proc. of the VII International Conference on
Industrial Engineering and Operations Management, 248-256.
Simar, L. e Wilson, P. W. (1998).
Sensitivity analysis of efficiency scores: How to
bootstrap in nonparametric frontier models, Management
Science, 44, 49-61.