Digital

Inteligência artificial na prática de monitorar a exaustão do trabalhador

Trata-se de resumo aprovado e apresentado no evento FEPODI 2021 (VIII Congresso Nacional) realizado de 18 a 19 de março de 2021, na linha de pesquisa Direito e Novas Tecnologias.

 

INTELIGÊNCIA ARTIFICIAL NA PRÁTICA DE MONITORAR A EXAUSTÃO DO TRABALHADOR
Alexandre Dimitri Moreira de Medeiros

 

RESUMO

A inteligência artificial está sendo aplicada no Brasil para atender os mais variados interesses pessoais dos seus donos em um ambiente jurídico carente de um marco legal, de uma política nacional ou de uma lei específica para traçar os valores e princípios norteadores do desenvolvimento, implementação e governança dessa tecnologia. Delimita-se o objeto deste estudo ao impacto interdisciplinar no Direito, especialmente no que toca aos direitos dos trabalhadores à redução dos riscos inerentes ao trabalho, além de outros que visem a melhoria de sua condição social, causado pelo desenvolvimento e implantação de sistemas da informação ou computacionais de inteligência artificial na saúde, em um contexto ainda sem uma estratégia de boa governança em IA. Tem-se por objetivo analisar a eticidade da aferição digital da exaustão do trabalhador, empregando uma abordagem dedutiva, com pesquisa de textos científicos pertinentes e revisão da literatura sobre o tema.

Palavras-chave
Regulamentação governamental; Ética; Inteligência artificial.

 

ARTIFICIAL INTELLIGENCE IN THE PRACTICE OF MONITORING WORKER EXHAUSTION.

Abstract

Artificial intelligence is being applied in Brazil to meet the most varied personal interests of its owners in a legal environment lacking a legal framework, national policy or specific law to outline the guiding values and principles of the development, implementation and governance of this technology. The object of this study is delimited to the interdisciplinary impact on law, especially with regard to workers’ rights to reduce the risks inherent to work, in addition to others aimed at improving their social condition, caused by the development and implementation of information systems or computational artificial intelligence in health, in a context where there is not a good AI governance strategy. The objective is to analyze the ethics of the digital measurement of worker exhaustion, using a deductive approach, with research of relevant scientific texts and review of the literature on the subject.

Keywords
Government regulation; Ethics; Artificial intelligence.

INTRODUÇÃO

 

No Brasil, as aplicações de sistemas da informação ou computacionais de inteligência artificial estão sendo desenvolvidas e implementadas em um ecossistema ainda sem governança por tramitarem na Câmara dos Deputados os projetos que tratam do marco (BISMARCK, 2020) e da lei (MORAES, 2020) da inteligência artificial, e por tramitar, ainda, no Senado Federal o projeto que trata da política nacional (VALENTIM, 2019) da inteligência artificial.

O exercício das atividades dos profissionais da informática, no Brasil, sequer foi regulamentado (ALVES, 2016), em face do arquivamento do projeto de lei que tratava sobre isso na Câmara dos Deputados.
O interesse privado das partes interessadas nas aplicações de sistemas da informação ou computacionais de inteligência artificial, desenvolvidas e implementadas, sem governança, impactam os direitos dos trabalhadores (BRASIL, 1988) à redução dos riscos inerentes ao trabalho (art. 7º, XXII), além de outros que visem a melhoria de sua condição social (art. 7º, caput).

A aferição digital da exaustão do trabalhador é medida viável, tecnologicamente, de ser usada pelo empregador no seu programa de controle médico de saúde ocupacional (PCMSO), e nos seus serviços especializados em engenharia de segurança e em medicina do trabalho (SESMTs).

Entretanto, essas informações e quaisquer dados de saúde coletados dos trabalhadores são classificados como sensíveis (art. 5º, II) pela Lei Geral de Proteção de Dados Pessoais brasileira (BRASIL, 2018).

Usando uma abordagem dedutiva, com pesquisa de textos científicos pertinentes e revisão da literatura sobre regulamentação governamental, ética e inteligência artificial, este resumo expandido tem por objetivo analisar se é ético o tratamento de dados sensíveis de saúde dos trabalhadores, via sistemas de informação ou computacionais de inteligência artificial, sem governança dessas aplicações.

 

FUNDAMENTAÇÃO TEÓRICA

 

Russel, Dewey, Tegmark (2015, p. 107) sustentam que, na perspectiva da regulamentação governamental, a inteligência artificial é capaz de promover muitos benefícios e novos potenciais malefícios, sendo importante refletir sobre a vastidão e o mérito das hipóteses que merecem ser reguladas e como serão implementadas.

As políticas públicas nesta seara devem ser adaptáveis às novas circunstâncias desencadeadas ou descobertas ao longo do tempo, e hábeis na capacidade de limitar o desenvolvimento e a implantação nociva dessa tecnologia, bem como orientadas à redução de riscos, e centradas em regras eficazes de compliance (RUSSEL; DEWEY; TEGMARK, 2015, p. 107).

É dever moral dos pesquisadores em inteligência artificial garantir que o impacto social dessa tecnologia seja benéfico (RUSSEL; DEWEY; TEGMARK, 2015, p. 112).

Segundo Malik et. al. (2018, p. 3394) a meta desses pesquisadores é tornar a inteligência artificial capaz de identificar e agir de acordo com os objetivos dos seus donos, usuários ou consumidores humanos.

Nesse benéfico cenário de desenvolvimento e implantação colaborativa de inteligência artificial, foi verificado que os donos, usuários ou consumidores passam a escolher o comportamento decisório mais pedagógico previsto pela interação com essa tecnologia (MALIK et al., 2018, p. 3401).

Todavia, os desenvolvedores de inteligência artificial não têm à disposição métodos comprovados e capazes de, empiricamente, reconhecer quais princípios ou valores éticos incidem no contexto prático das suas atividades profissionais de forma a criar uma cadeia decisória justificável entre os critérios específicos do sistema desenvolvido, a conformidade às normas locais, e os princípios ou valores éticos obedecidos (MITTELSTADT, 2019, p. 505).

Há mais de uma década que se constata o descarte de reflexões ou medidas éticas quando, no desenvolvimento de aplicações de inteligência artificial, conflitam com incentivos comerciais (MANDERS-HUITS; ZIMMER, 2009, p. 42).

Enfim, define-se auditoria ética de algoritmo o conjunto de investigações por choque “[…] negativo do algoritmo sobre os direitos e interesses das partes interessadas, com uma identificação correspondente das situações e/ou características do algoritmo que dão origem a esses impactos negativos” (BROWN; DAVIDOVIC; HASAN, 2021, p. 2, tradução nossa).

 

RESULTADOS E DISCUSSÃO

 

Identifica-se o seguinte problema: o empregador implementa no cotidiano do local de trabalho a obrigação do funcionário usar ferramenta tecnológica aferidora da sua exaustão, física (v.g. frequência cardíaca) e mental (v.g. voz), sem limitação de acesso aos dados coletados, e passa a analisar essas informações para atender seus propósitos, com viés privado alinhado aos seus objetivos sociais.

É relevante observar que, por força da relação de trabalho, a aferição da exaustão do trabalhador está contida no rol dos serviços de saúde prestados pelo empregador, via seu médico do trabalho, está sujeito aos valores e princípios éticos da medicina (CONSELHO FEDERAL DE MEDICINA, 2019).

Os dados coletados e as informações tratadas por sistemas de informação ou computacionais de inteligência artificial acerca da exaustão dos trabalhadores estão protegidos pela garantia de privacidade e sigilo profissional do médico do trabalho. Pode-se dizer, então, que é uma inconformidade ética, no desenvolvimento e implementação desse sistema da informação ou computacional de inteligência artificial, não estar previsto que o acesso do empregador ao banco de dados de saúde do seu empregado ocorrerá somente após a anonimização.

Não adianta, todavia, se o desenvolvedor do sistema da informação ou computacional de inteligência artificial atender à previsão da anonimização dos dados para análise do empregador, e o médico do trabalho não respeitar seu dever ético de não vazar informação personalizada sobre os pacientes-empregados ao seu contratante.

São consequências, tanto desse acesso ilimitado aos dados não previsto pelo desenvolvedor do sistema da informação ou computacional de inteligência artificial quanto do vazamento de dados pelo médico do trabalho, a capacidade do empregador aumentar os riscos inerentes ao trabalho (v.g. destinação de mais volume de trabalho para quem demonstra menos exaustão física ou mental), além de violar outros direitos do trabalhador pela precarização da sua condição social (v.g perseguição, promoção, transferência, demissão de trabalhador por estar ranqueado muito abaixo da média da exaustão aferida e desejada em tal setor ou qual equipe).

Observa-se que se o desenvolvimento de sistema da informação ou computacional de inteligência artificial é focado no objetivo de atender aos desejos do empregador, então, a inovação tecnológica é estruturada para atender, fielmente, os objetivos privados traçados na sua concepção para atingir mais eficiência, produtividade e rentabilidade.

Ora, se cuidar da saúde do trabalhador é um dever que tem um custo significativo a ser suportado pelo empregador, então, é provável que exista incentivo comercial que influencia o empregador a optar por não adicionar o custo vinculado às medidas éticas, apostando na baixa probabilidade de ser fiscalizado, e, caso seja selecionado pela fiscalização, confiando na incapacidade de se auditar por falhas éticas no algoritmo desenvolvido e implementado.

É uma conjuntura possível que o empregador utilize do seu acesso ilimitado e da falta de ética do seu médico do trabalho para tomar medidas benéficas quanto ao trato das informações de saúde do seu funcionário, mas o certo é que, mesmo sem governança, marco, lei ou política nacional de inteligência artificial, está o empregador sujeito, no Brasil, à fiscalização da Subsecretaria de Inspeção do Trabalho (SIT), da Autoridade Nacional de Proteção de Dados (ANPD) ou do Ministério Público do Trabalho (MPT).
Sem regulamentação pública que exija nesse projeto de aferição da exaustão do trabalhador, via aplicações de inteligência artificial, obediência de modelo ético de governança, então, transfere-se à fiscalização o dever de detectar o viés privado no tratamento das informações por regras de auditoria ética de algoritmo que sequer detém capacidade ou competência para formular.

 

CONCLUSÕES

 

É provável inferir que não é ético o tratamento de dados sensíveis de saúde dos trabalhadores, via sistemas de informação ou computacionais de inteligência artificial, desenvolvidos e implementados em ecossistema sem governança, e sem modelos éticos capazes de limitar a tendência do empregador optar pelos incentivos comerciais em detrimento de medidas éticas que só incrementam os custos com a saúde do trabalhador.

O modelo atual de não regulamentação dos profissionais de informática ou computação, e a falta de um marco, política nacional ou lei específica sobre inteligência artificial, no Brasil, só potencializa a capacidade do desenvolvimento e implementação dessa inovação tecnológica, focada na aferição da exaustão do trabalhador, violar os direitos dos trabalhadores à redução dos riscos inerentes ao trabalho, além de outros que visem à melhoria de sua condição social.

À luz do modelo teórico destacado neste resumo, interpreta-se os dados já elaborados no sentido de que o ecossistema brasileiro de desenvolvimento e implementação de sistemas de informação ou computacionais de inteligência artificial, para aferição da exaustão do trabalhador, não está em conformidade ao dever de causar impacto social benéfico, e que a política pública brasileira está concentrando nos órgãos de fiscalização a função de auditar a eticidade desse algoritmo escrutinado.

 

REFERÊNCIAS

 

ALVES, Vicentinho. Projeto de Lei do Senado nº 420/2016. Regulamenta as profissões das áreas de informática, de processamento de dados e de correlatas à informática, e dá outras providências. Brasília, DF: Senado Federal, 21 nov. 2016. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/127571. Acesso em: 05 fev. 2021.

BISMARK, Eduardo. Projeto de Lei nº 21/2020. Estabelece princípios, direitos e deveres para o uso de inteligência artificial no Brasil, e dá outras providências. Brasília, DF: Câmara dos Deputados, 04 fev. 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2236340. Acesso em: 05 fev. 2021.

BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil. Brasília, DF: Presidência da República, [2016]. Disponível em: https://www.planalto.gov.br/ccivil_03/Constituicao/Constituicao.htm. Acesso em: 05 fev. 2021.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei geral de proteção de dados pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 05 fev. 2021.

BROWN, Shea; DAVIDOVIC, Jovana; HASAN, Ali. The algorithm audit: Scoring the algorithms that score us. Big Data & Society, [S. l.], 2021, v. 8, n. 1, p. 1-8. Disponível em: https://journals.sagepub.com/doi/pdf/10.1177/2053951720983865. Acesso em: 05 fev. 2021.

CONSELHO FEDERAL DE MEDICINA. Resolução CFM nº 2.217/2018. Aprova o código de ética médica. Brasília, DF: CFM, 2018. Disponível em: https://sistemas.cfm.org.br/normas/visualizar/resolucoes/BR/2018/2217. Acesso em: 05 fev. 2021.

MALIK, Dhruv; PALANIAPPAN, Malayandi; FISAC, Jaime; HADFIELD-MENELL, Dylan; RUSSELL, Stuart; DRAGAN, Anca. An Efficient, Generalized Bellman update for Cooperative Inverse Reinforcement Learning. In: Proceedings of the 35th International Conference on Machine Learning, 2018, v. 80, p. 3394-3402. PMLR. Estocolmo: Jennifer Dy e Andreas Krause, 2018. Disponível em: http://proceedings.mlr.press/v80/malik18a/malik18a.pdf. Acesso em: 05 fev. 2021.

MANDERS-HUITS, Noëmi; ZIMMER, Michael. Values and pragmatic action: The challenges of introducing ethical intelligence in technical design communities. International Review of Information Ethics, [S. l.], 2009, v. 10, p. 37-44. ISSN 1614-1687 versão online. Disponível em: http://www.i-r-i-e.net/inhalt/010/010-full.pdf. Acesso em: 05 fev. 2021.

MITTELSTADT, Brent. Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 2019, v. 1, p. 501-507. Disponível em: https://doi.org/10.1038/s42256-019-0114-4. Acesso em: 05 fev. 2021.

MORAES, Léo. Projeto de Lei nº 240/2020. Cria a lei da inteligência artificial, e dá outras providências. Brasília, DF: Câmara dos Deputados, 11 fev. 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2236943. Acesso em: 05 fev. 2021.

RUSSEL, Stuart; DEWEY, Daniel; TEGMARK, Max. Research priorities for robust and beneficial artificial intelligence. AI Magazine, [S. l.], 2015, v. 36, n. 4, p. 105-114. Disponível em: https://doi.org/10.1609/aimag.v36i4.2577. Acesso em: 05 fev. 2021.

VALENTIM, Styvenson. Projeto de Lei nº 5.691/2019. Institui a política nacional de inteligência artificial. Brasília, DF: Senado Federal, 25 out. 2019. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/139586. Acesso em: 05 fev. 2021.