Sobre o Direito e a Inteligência Artificial (& Robótica) - Parte III
Finalmente, caros leitores, adentraremos agora em uma análise de cunho mais jurídico sobre as questões envolvendo a IA e a Robótica. Como advogado, poderia dizer que agora, após tratar superficialmente de aspectos técnicos da IA nas partes I e II desta série de textos, estou escrevendo sobre tema que domino, mas se assim o fizesse eu estaria mentindo para vocês. Aliás, qualquer um que disser que domina o conhecimento jurídico sobre questões envolvendo IA e Robótica estará faltando com a verdade. Ainda que a IA e os robôs já estejam presentes em nosso cotidiano, o mundo jurídico aos poucos está despertando para analisar os fenômenos que vem junto com a adoção dessas tecnologias.
O objetivo deste texto, portanto, é apresentar alguns pontos em que já existe demanda por respostas jurídicas a questões envolvendo a IA, especialmente no âmbito do direito civil - área em que atuo. Dedicarei maior atenção ao sistema legal brasileiro para apresentar algumas opiniões, ainda que aquele seja terreno árido para tal fim (sequer temos uma lei específica para a proteção de dados pessoais no ambiente digital, vale ressaltar). Por tal razão, sempre que possível, trarei também um pouco das experiências e ensinamentos estrangeiros que já ventilaram os temas abordados e que, invariavelmente, serão fonte de inspiração para futuras normas nacionais.
Tópicos como a criação de uma personalidade jurídica específica para seres artificialmente inteligentes[1] e as questões éticas e morais no relacionamento com entidades de IA[2], apesar de extremamente interessantes, são assuntos que, ao meu ver, ainda estão distantes de nossa realidade próxima. Por tal razão, não esperem ler nada sobre isso aqui - até posso estar errado, como citei na parte I destes textos, mas farei minha aposta nesse entendimento. Ademais, para tratar destes assuntos, precisaríamos discutir a existência de consciência na IA, tema que demanda um tratado específico para que seja suficientemente explorado (a possivelmente sem chegar a uma resposta definitiva).
Da mesma forma, algumas das intrigantes discussões trazidas na proposta europeia para uma regulação de direito civil para a robótica não terão espaço neste texto. Falo, em especial, de temas como a criação de fundos securitários para acidentes relacionados ao uso de robôs na sociedade, assim como a criação de fundos voltados a mitigar os prejuízos de trabalhadores com o desemprego oriundo da adoção cada vez maior da robótica em atividades industriais e comerciais. Tratam-se de assuntos de relevante importância, mas que demandam, também, um estudo próprio para que sejam suficientemente abordados.
Dessa forma, resolvi delimitar este texto a duas questões sediadas nessa intersecção entre o Direito Civil e a IA (e robótica) que, na minha atuação profissional, parecem-me mais prementes: (i) a responsabilidade ética no desenvolvimento de IA e robôs dotados desta e (ii) a responsabilidade civil por danos causados por entidades autônomas.
(i) Responsabilidade ética no desenvolvimento de IA
Conforme citado na parte I deste texto, as leis da robótica sempre chamaram minha atenção durante a leitura das obras de Asimov. Um conjunto de regras obrigatoriamente imbuídas em todos os programas de entidades artificialmente inteligentes que, na verdade, possuíam mandamentos com considerável grau de subjetividade (ex.: um robô não pode causar mal um ser humano ou, por inação, permitir que um ser humano venha a sofrer algum mal). Esse tipo de comando, conforme podemos observar, apresenta-se muito mais como um mandamento ético-moral do que como uma regra de imediata execução - o que torna impraticável, na tecnologia atual, a sua codificação em um sistema de inteligência artificial.
Nesta linha de raciocínio, a estudiosa Nathalie Nevejans concorda que no estágio atual não há que se falar na criação de uma ética para máquinas, pois a tecnologia de hoje está muito longe de permitir que robôs tomem decisões morais[3]. Todavia, ainda assim precisamos de mecanismos que mitiguem os riscos de um sistema autônomo, através de seu processo de aprendizagem (algoritmos evolutivos, machine learning, redes neurais e outros), tomar decisões que acarretem em efeitos negativos ao ser humano.
Nesse sentido, portanto, vem a proposição nº 6 da proposta europeia para uma resolução de direito civil para a robótica[4], que sugere a criação de um código de conduta para engenheiros de robótica, designers e usuários. Por trás dessa ideia está a criação de regras éticas para humanos envolvidos com a construção, programação e uso de entidades autônomas de IA - algo que, realmente, faz muito mais sentido.
No meu ponto de vista, o maior risco no uso e emprego de entidades de IA está na autonomia que se dá para a tomada de decisões e, consequentemente, na imprevisibilidade que estas podem ter, especialmente quando consideradas aquelas formas de aprendizagem autônoma da IA. Por outro lado, barrar totalmente tecnologias e algoritmos que permitam o auto aprimoramento de sistemas e a capacidade destes de tomar de decisões sem intervenção humana seria um retrocesso tecnológico, algo que vai totalmente de encontro ao progresso da IA e da robótica e, porque não, do próprio bem-estar do ser humano[5].
Dessa forma, pensando exatamente em como tornar mais seguro esse procedimento de criação de entidades artificialmente inteligentes, Nick Bostrom e Eliezer Yudkowsky, duas autoridades no estudo do tema, escreveram o artigo “The Ethics of Artificial Intelligence”[6], no qual sugerem alguns critérios a serem respeitados por programadores e demais profissionais envolvidos com o desenvolvimento de IA. Nesse contexto, vale transcrever o porquê da escolha desses valores: “todos (são) critérios aplicáveis a humanos que exercem funções sociais; todos (são) critérios que devem ser considerados em um algoritmo voltado a substituir o julgamento humano em funções sociais” (tradução livre).
Dessa forma, em face à rica contribuição feita por Bostrom e Yudkowsky, adotarei, para o presente texto a sugestão feita por eles. Lembro, por óbvio, que não se trata de uma opinião inquestionável e tampouco que ela não possa ser complementada e aprimorada. Trata-se, outrossim, de um dos primeiros trabalhos que aborda tal problemática e, portanto, merece aqui distinta atenção.
Dito isso, eis o primeiro critério lançado por tais estudiosos: (1) transparência para inspeção. Os programas dotados de IA, seus algoritmos e as etapas de seu processo de aprendizagem e de tomada de decisões devem ser traduzíveis para um formato inteligível, sendo acessíveis ao operador humano em caso de falhas. Sendo possível auditar quando e por que um sistema autônomo optou por um determinado caminho na sua tomada de decisões auxiliará em muito no desenvolvimento salutar da IA e no aprendizado de outros sistemas inseridos no mesmo contexto social. Portanto, sistemas de IA devem ser auditáveis e transparentes, não necessariamente a qualquer momento e por qualquer um, mas sempre que algo estranho ou errado tiver ocorrido.
Não escondo que a implementação deste critério, para determinados casos, seria um enorme desafio, especialmente em face a tecnologias como o deep learning, que por vezes torna humanamente impossível identificar a cadeia de códigos que resultaram na decisão questionada. Todavia, já existem profissionais envolvidos com a criação de algoritmos para explicar a tomada de decisões de outros algoritmos[7], o que certamente atenderia a este critério.
O segundo critério sugerido é a (2) previsibilidade. Defendem os citados estudiosos que todo sistema de IA que governa alguém deve ser previsível por este que é governado por ele, especialmente nestes casos em que a IA exerce uma função social. Aqui, sim, podemos fazer um paralelo com nosso mundo jurídico, que tem como um de seus objetivos maiores a segurança jurídica, isto é, permitir que saibamos de todos os reflexos legais quando assumimos uma obrigação. Ainda que saibamos que nem sempre isso ocorrerá (nem no direito, nem na ciência da programação), tal critério deverá estar sempre na mente dos criadores e operadores de ambos mundos.
Outro critério mencionado no referido artigo é a (3) robustez contra manipulação. Os algoritmos desenvolvidos, especialmente para aplicações de segurança[8], devem estar preparados para a criatividade humana dedicada a burlá-los (seja com artifícios físicos ou digitais). Nós, seres humanos, além de imprevisíveis, podemos empregar nossa inteligência para qualquer fim, ou seja, neste caso, com o perdão do trocadilho, é a máquina que deve correr atrás da gente.
O último critério mencionado é a (4) responsabilidade, e este interessará muito ao próximo tópico deste texto. Conforme defendem Bolstrom e Yudkwosky, se um sistema de IA falha, algúem deve ser responsabilizado (ao menos enquanto robôs não tiverem personalidade própria e patrimônio). Sejam os programadores, os fornecedores do sistema ou o próprio usuário, enquanto pairar sobre as pessoas envolvidas com o desenvolvimento e o uso de entidades autônomas a possibilidade de serem responsabilizadas pelos atos desta, o peso de tal ônus certamente trará mais cuidado no uso da IA.
Responsabilidade, transparência, auditabilidade, incorruptibilidade e previsibilidade - assim resumiram os citados estudiosos os critérios que devem estar presentes no desenvolvimento e uso de entidades dotadas de IA. Claro que, para criar-se um código de ética entre desenvolvedores, engenheiros e demais técnicos do assunto, estes devem participar ativamente de tal debate (juntamente com representantes de todos setores da sociedade[9]). Entendo que tal debate e a eventual criação de um código de conduta servirão beneficamente ao desenvolvimento da tecnologia de IA e de nosso direito em torno desta.
(ii) Responsabilidade civil por danos causados por entidades autônomas no Brasil
Aqui adentramos em uma análise um pouco mais prática dos reflexos negativos do uso da IA e de robôs em nosso dia a dia. Primeiramente cumpre diferenciar brevemente a responsabilidade contratual (advinda do descumprimento de um contrato) da extracontratual (advinda de um ato que resulta em dano a alguém/algo, independente de prévia relação jurídica entre as partes), sendo que nossa atenção será mais voltada a esta última.
Assim, pergunta-se: como se dá a responsabilização civil por danos causados por atos praticados por um sistema artificialmente inteligente? A priori, no Brasil, tal fato será tratado da mesma forma como um ato danoso sujeito aos ditames da responsabilidade civil - especialmente na ausência de uma lei específica.
Para que fique claro o potencial nocivo de atos praticados por entidades de IA, não precisamos pensar apenas no dano material causado por um carro autônomo ou um robô, que parecem situações mais palpáveis para essa reflexão. É importante salientar que hoje muitos softwares dotados de IA captam, processam e utilizam-se de dados pessoais para diversos fins (ex.: análise de crédito). Relembro, também, do episódio do Flash Crash de 2010, quando o índice da Dow Jones caiu 9% em poucos minutos. Este fato, ainda que iniciado por um ser humano em uma prática ilegal, só atingiu tal dimensão devido aos algoritmos de sistemas automatizados de operação na bolsa, que criaram uma ciclo absurdo de ordens de compra e venda de determinados ativos.
Assim, analisarei brevemente tal questão sob a óptica do direito consumerista e do direito civil comum brasileiros.
(ii.a) Direito do Consumidor
No direito do consumerista brasileiro[10], temos como regra geral a responsabilidade civil objetiva daqueles envolvidos com o fornecimento de um produto e/ou serviço que resultou em algum dano ao consumidor. Trata-se de uma ampla responsabilização, que além de criar solidariedade entre os players da cadeia de fornecimento (fabricante, produtor, construtor, importador e até mesmo o comerciante), determina que tal responsabilidade se dá independente de culpa. Todavia, existem exceções, como a culpa exclusiva do consumidor ou de terceiro que, se provadas, elidem tal responsabilidade[11].
Cumpre ressaltar, ainda, que no âmbito do direito consumerista, o dever informacional é um mandamento inafastável do fornecedor. Isto é, o consumidor deve estar plenamente ciente do que está adquirindo e do que esperar do produto ou serviço contratado. Neste ponto, chamo a atenção para o enunciado do art. 8º do Código de Defesa do Consumidor: Os produtos e serviços colocados no mercado de consumo não acarretarão riscos à saúde ou segurança dos consumidores, exceto os considerados normais e previsíveis em decorrência de sua natureza e fruição, obrigando-se os fornecedores, em qualquer hipótese, a dar as informações necessárias e adequadas a seu respeito.
Transportando tais questões para o universo do presente texto, não há dúvida de que os fornecedores de produtos e serviços dotados de IA, sejam estes inteiramente autônomos ou dependentes de um agente humano, serão responsáveis pelos danos causados ao consumidor (ressalvadas as exceções). Se de fato há um erro no código ou na máquina que performa determinada atividade, ou se o fornecedor estava ciente de que um ato danoso poderia ocorrer naquela configuração, não resta dúvida de que será responsabilizado. Contudo, o que ocorre quando o ato danoso for imprevisível, gerado por uma decisão da entidade de IA, tomada com base em seu aprendizado autônomo?
Utilizando-me do mindset jurídico atual, entendo que a imprevisibilidade das decisões tomadas por um sistema inteligente, que talvez possa afastar ou mitigar responsabilidades no direito civil comum (veremos a seguir), no âmbito consumerista só agrava a responsabilidade do fornecedor. Como destacado acima, aquele só poderá colocar no mercado produtos/serviços cujos riscos no uso sejam previsíveis.
No entanto, gostaria propor uma reflexão a vocês. No atual nível tecnológico de desenvolvimento da IA, a imprevisibilidade de um sistema autônomo não poderia ser vista como um risco esperado[12]? Nesta contexto, quando não há qualquer risco a terceiros, seria possível defender que o consumidor entusiasta de novas tecnologias e plenamente ciente da imprevisibilidade do produto, poderia abrir mão de seus direitos para ser um dos primeiros a ter um sistema inovador?
O art. 51 do CDC[13] diz que as cláusulas de um contrato que atenuam a responsabilidade do fornecedor e/ou que façam o consumidor abrir mão de indenizações são consideradas abusivas e ilegais. No entanto, fica aqui a reflexão sugerida, especialmente nesse mundo de efervescentes inovações e consumidores sedentos por novidades.
(ii.b) Direito Civil
Voltando nossa atenção ao direito civil[14], pensando por exemplo nas relações comerciais entre empresas que fornecem e contratam produtos e/ou serviços dotados de IA e nas relações entre usuários, o cenário da responsabilidade civil muda bastante. Primeiro, pois a responsabilidade objetiva já não é mais a regra geral - deverá estar expressamente prevista em lei para que, independente de culpa, alguém seja responsabilizado por eventuais danos causados[15].
No âmbito civil, portanto, para que alguém seja responsabilizado por um ato danoso deverão estar presentes os três elementos essenciais da responsabilidade: (i) dano, (ii) culpa do agente e (iii) nexo da causalidade. O dano é auto explicativo (moral ou material), a culpa do agente, nos termos do art. 186 do Código Civil, pode ocorrer através de ação, omissão voluntária, negligência ou imprudência, e o nexo de causalidade é o liame entre o ato e o dano resultante.
Entendo ser desnecessário tratar daqueles que, deliberadamente, usam um robô ou um um software com IA para causar algum dano - trata-se de situação clara para a responsabilização, onde também há plena previsibilidade dos resultados do uso da tecnologia em questão (ex.: ordenar um software com IA para realizar ataques de negação de serviço a um site). O mesmo vale para uma falha/bug na programação do sistema inteligente que poderia ter sido constatada anteriormente por simples revisão, pois, neste caso, tratar-se-ia de um ato de negligência da empresa (e de seu programador/engenheiro) que disponibilizou o produto/serviço com defeito[16].
A situação que vejo como enriquecedora para este debate é a seguinte: como determinar a culpa em um ato imprevisível praticado por uma entidade dotada de IA, oriundo de seu processo autônomo de aprendizagem? Para este caso, no direito civil brasileiro, vejo duas possibilidades de enquadramento: (i) negligência e, consequentemente, responsabilidade pela reparação dos danos causados ou (ii) caso fortuito e, assim, uma excludente de responsabilidade.
Por negligência entende-se a conduta passiva do agente que age com descuido - que deixa de observar o dever de cuidado. No caso proposto, pode ser entendido que o fornecedor da tecnologia, por mais que não tivessem detectado a possibilidade de ocorrência da decisão danosa, poderia ter antecipado tal cenário, seja mediante a realização de mais testes ou através de uma alimentação mais intensa de dados para que o sistema já tivesse tomado decisões em situação idêntica ou similar.
A este respeito, cumpre mencionar alguns padrões legais, sugeridos por Peter Asaro[17], a serem avaliados na hipótese suscitada: (i) se o fornecedor/programador tinha ciência do potencial problema, (ii) se uma pessoa técnica no assunto poderia ter previsto tal problema e (iii) se existe um padrão de prática na indústria que poderia ter revelado este problema. Obviamente, tudo dependerá do caso concreto e, certamente, de uma perícia técnica com profissionais versados no assunto para verificar se era plausível esperar determinado comportamento do sistema de IA e se este não foi gerado por fatores externos apenas.
Tudo recairá, como se vê, na disputa “previsibilidade vs. imprevisibilidade” para demonstrar se houve negligência do fornecedor da tecnologia – uma tarefa árdua.
De outro lado, e aqui certamente vem o ponto mais polêmico desta reflexão, está a situação de caso fortuito, previsto como uma excludente de responsabilidade no art. 393 de nosso código civil:
Art. 393. O devedor não responde pelos prejuízos resultantes de caso fortuito ou força maior, se expressamente não se houver por eles responsabilizado.
Parágrafo único. O caso fortuito ou de força maior verifica-se no fato necessário, cujos efeitos não era possível evitar ou impedir.
Entende-se por caso fortuito o fato imprevisível que não poderia ser evitado pelo agente alvo de responsabilização. Dentro deste conceito clássico, seria possível defender a hipótese de que a decisão imprevisível de um sistema de IA, tomada de forma autônoma por meio de seu sistema de aprendizado, estaria englobado pelo conceito de caso fortuito - afastando, assim, o dever de reparação de danos. Claro que, para tal enquadramento, o ônus probatório daquele que busca elidir sua responsabilidade seria imenso.
No entanto, algumas teorias civilistas mais recentes dividem o caso fortuito em interno e externo. O primeiro diz respeito a fatos imprevisíveis relacionados diretamente à atividade da empresa e seus funcionários/prestadores, o qual não seria suficiente para afastar a responsabilidade do fornecedor da tecnologia, pois estaria dentro do risco assumido pelo negócio. O externo, por sua vez, estaria relacionado a fatos alheios à empresa, eximindo, assim, a responsabilidade desta pelos danos causados (ex.: terremoto)[18].
Dentro dessa distinção doutrinária citada acima, a priori, a decisão geradora de danos tomada por um sistema inteligente, ainda que imprevisível, seria vista como um caso fortuito interno. Não obstante, considerando que sistemas inteligentes se alimentam de dados externos, seria possível sustentar também que, em determinados casos, se comprovado que fatos externos imprevisíveis e inevitáveis contribuíram de forma determinante para a decisão danosa tomada, estaríamos diante de uma excludente de responsabilidade do fornecedor da tecnologia.
Lembro, para tal fim, do chatbot criado pela Microsoft no Twitter (a Tay) dotado de inteligência artificial. A proposta era que esse robô se alimentaria de dados dos demais usuários daquela rede para se corresponder com aqueles. Em menos de um dia a Tay passou a proferir opiniões racistas e xenófobas até que foi retirada do ar. Após analisarem o porquê desse comportamento, viu-se que um grupo de “trolls” do famoso site 4chan combinou de alimentá-la com diversos tweets dotados desse tipo de informação. Neste caso, se alguém foi xingado com palavras racistas pela Tay, haveria o dever de reparação por danos morais?
Enfim, como pode ser visto acima, há muito ainda que se discutir sobre a responsabilidade civil por danos causados por entidades de IA. Suspeito, como melhor tratarei das considerações finais deste texto (parte IV), que o direito brasileiro, quando deparar-se com um caso do tipo, inclinar-se-á a responsabilizar os criadores e fornecedores de tecnologias dotadas de IA, mesmo na hipótese de um ato danoso resultante de uma decisão autônoma e imprevisível. No entanto, antecipo que gostaria de encontrar uma solução mais equilibrada para esta questão, pois temo que esse tratamento desincentive o desenvolvimento tecnológico da IA e da Robótica.
[1] Merece destaque a recente notícia de que a Arábia Saudita conferiu cidadania a um robô com inteligência artificial, construído pela empresa Hanson Robotics. O que isso representará, na prática, ainda não sabemos. Notícia disposível em <http://revistagalileu.globo.com/Tecnologia/noticia/2017/10/arabia-saudita-torna-se-primeiro-pais-conceder-cidadania-para-um-robo.html> acesso em 25/11/2017.
Ainda nesse sentido, vale mencionar também o que disse Nathalie Nevejans sobre a ideia de criar uma personalidade jurídica para robôs, conforme opinião emitida em um estudo encomendado pelo Parlamento Europeu acerca da proposição de criação de um regramento civil específico para a robótica: “Por outro lado, se considerarmos que há uma pessoa por atrás de um robô autônomo, então esta pessoa representaria a “pessoa eletrônica”, a qual, legalmente falando - tal como uma pessoa jurídica - simplesmente seria uma construção intelectual ficcional. Dito isso, então, a ideia de criar um mecanismo sofisticado para produzir um resultado sem sentido demonstra o quão incongruente seria outorgar uma personalidade jurídica a algo que é apenas uma máquina” (tradução livre). Texto disponível em <http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf> acesso em 30/11/2017.
[2] A respeito deste assunto, além da leitura obrigatórias das obras de Asimov, faz-se a sugestão de assistir à série Westworld, da HBO, que apesar de ser verdadeira ficção, traz importante reflexão sobre essa relação homem x máquina inteligente.
[3] “European Civil Law Rules in Robotics - Study for the JURI Committee”. Disponível em <http://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf> acesso em 30/11/2017.
[4] “6 - Considerar que um conjunto de regras éticas para o design, a produção e o uso de robôs é necessário para complementar as recomendações legais do parecer e as regras nacionais e da União existentes; Propor, no anexo da resolução, um conjunto de regras em forma de uma Carta consistindo de um código de conduta para engenheiros de robótica, em um código para comitês de pesquisa ética quando da revisão de protocolos de robótica e de modelos de licença para desenvolvedores e usuários” (tradução livre); Documento nº 2015/2103 INL – disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN> acesso em 30/11/2017.
[5] Não há dúvidas de que o emprego de IA e de robôs já trouxeram inúmeros benefícios ao ser humano. A este respeito, vale citar o uso de robôs para desarmar bombas e minas terrestres, o uso de IA para identificar padrões de doenças através de dados de exames, programas inteligentes para prevenção de atos criminosos, sistemas inteligentes para controle de colapsos usinas de energia, entre outras inúmeras aplicações benéficas dotadas de IA.
[6] Artigo disponível em <https://nickbostrom.com/ethics/artificial-intelligence.pdf> acesso em 30/11/2017.
[7] Matéria do portal Quartz: “We don’t understand how AI make most decisions, so now algorithms are explaining themselves” Disposível em <https://qz.com/865357/we-dont-understand-how-ai-make-most-decisions-so-now-algorithms-are-explaining-themselves/> acesso em 05/12/2017.
[8] Aqui faço uma singela homenagem ao podcast Segurança Legal, que aborda temas do direito e da segurança da informação, sendo que em mais de um dos seus episódios o uso da IA para defender e/ou para atacar já foi abordado e brilhantemente discutido pelos participantes
[9] Relativamente à responsabilidade ética no desenvolvimento de tecnologias de IA e ao envolvimento de diversos setores da sociedade nesta discussão, sugiro a leitura da Carta Aberta sobre As Prioridades de Pesquisa para uma Inteligência Artificial Forte e Benéfica, escrita pelos membros do Future of Life Institute e firmada por diversos profissionais envolvidos com esse tema, incluindo Elon Musk, Steve Wozniak e Stephen Hawking. Tal carta, vista erroneamente por alguns como uma manifestação anti-IA, prega, na verdade, um desenvolvimento mais responsável e sempre acompanhado de reflexões éticas e legais. Destaco uma das propostas mais marcantes feitas em dito documento: algumas áreas da IA deverão sempre ter um ser humano envolvido na cadeia de decisões. (Disponível em <https://futureoflife.org/ai-open-letter/> acesso em 05/12/2017).
[10] Código de Defesa do Consumidor:
Art. 12. O fabricante, o produtor, o construtor, nacional ou estrangeiro, e o importador respondem, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos, bem como por informações insuficientes ou inadequadas sobre sua utilização e riscos.
Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos.
[11] § 3° O fabricante, o construtor, o produtor ou importador só não será responsabilizado quando provar:
I - que não colocou o produto no mercado;
II - que, embora haja colocado o produto no mercado, o defeito inexiste;
III - a culpa exclusiva do consumidor ou de terceiro.
[12] Vide o exame proposto pelos arts. 12 e 14 do CDC ao especificar o que seria um produto/serviço defeituoso:
§ 1° O produto é defeituoso quando não oferece a segurança que dele legitimamente se espera, levando-se em consideração as circunstâncias relevantes, entre as quais:
(...)
II - o uso e os riscos que razoavelmente dele se esperam;
§ 1° O serviço é defeituoso quando não fornece a segurança que o consumidor dele pode esperar, levando-se em consideração as circunstâncias relevantes, entre as quais:
(...)
II - o resultado e os riscos que razoavelmente dele se esperam;
[13]Art. 51. São nulas de pleno direito, entre outras, as cláusulas contratuais relativas ao fornecimento de produtos e serviços que:
I - impossibilitem, exonerem ou atenuem a responsabilidade do fornecedor por vícios de qualquer natureza dos produtos e serviços ou impliquem renúncia ou disposição de direitos. Nas relações de consumo entre o fornecedor e o consumidor pessoa jurídica, a indenização poderá ser limitada, em situações justificáveis;
[14]Art. 186. Aquele que, por ação ou omissão voluntária, negligência ou imprudência, violar direito e causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito.
Art. 187. Também comete ato ilícito o titular de um direito que, ao exercê-lo, excede manifestamente os limites impostos pelo seu fim econômico ou social, pela boa-fé ou pelos bons costumes.
[15]Art. 927. Aquele que, por ato ilícito (Arts. 186 e 187), causar dano a outrem, fica obrigado a repará-lo.
Parágrafo único. Haverá obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem.
[16] A este respeito, cumpre ressaltar, programador e empresa poderão ser responsáveis solidários pelos danos causados a terceiros por tal negligência, desde que comprovado, obviamente, que ambos agiram dessa forma ilegal, conforme art. 942 do Código Civil:
Art. 942. Os bens do responsável pela ofensa ou violação do direito de outrem ficam sujeitos à reparação do dano causado; e, se a ofensa tiver mais de um autor, todos responderão solidariamente pela reparação.
Obviamente, por questões de estratégia processual, o terceiro que foi vítima desse ato de negligência possivelmente buscará primeiro no patrimônio maior (da empresa) a compensação pelos danos sofridos. Neste caso, a empresa poderá pleitear do programador o ressarcimento pelas indenizações pagas, se comprovado que aquele teve culpa no código mal redigido.
[17] “The Liability Problem for Autonomous Artificial Agents”. Disponível em <http://www.peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf> acesso em 02/12/2017.
[18] Agrego a esta conceiutação a brilhante explicação fornecida pela professora Ana Frazão: “Por mais que as fronteiras entre o risco e a incerteza nem sempre sejam claras, é inequívoco que, quanto mais um dano for previsível, suscetível de cálculo e controle pelo empresário (alocação, transferência, gerenciamento), mais fácil é sustentar que se trata de algo inerente à empresa. De forma contrária, quanto menos o dano for previsível ou suscetível de cálculo ou gerenciamento, mais fácil é sustentar que ele não corresponde ao risco da empresa, podendo ser atribuído a um fortuito externo” . “Risco da Empresa e Caso Fortuito Externo”, disponível em <http://civilistica.com/wp-content/uploads/2016/07/Fraz%C3%A3o-civilistica.com-a.5.n.1.2016.pdf> acesso em 10/12/2017.