A Nvidia resolveu um caso que começou quando um ex-funcionário entrou na empresa com segredos comerciais sobre direção autônoma que havia levado de seu antigo emprego na Valeo.
O acordo tornou-se público em um documento apresentado ao tribunal federal de San Jose, onde ambas as partes informaram ao juiz que haviam resolvido a disputa. O tribunal então cancelou o julgamento que estava marcado para o mês seguinte.
Os termos não foram divulgados e nenhuma das partes revelou o que foi acordado, mas a disputa surgiu de um projeto conjunto da Mercedes-Benz, no qual ambas as empresas trabalhavam em tecnologia para recursos avançados de direção.
Em 2021, a Valeo informou que um de seus engenheiros deixou a empresa para trabalhar na Nvidia e, posteriormente, passou a integrar uma equipe interna da fabricante de semicondutores. Durante uma videochamada, funcionários da Valeo avistaram o código-fonte transcrito na tela do engenheiro e fizeram uma captura de tela antes que ele fechasse a janela.
Esse momento se tornou o cerne de um processo judicial aberto pela Valeo em 2023, acusando a Nvidia de se beneficiar de material que nunca deveria ter saído de seus servidores.
Em um comunicado, a Nvidia negou veementemente a alegação de que utilizou código roubado para construir seu sistema de assistência ao estacionamento. A empresa afirmou ter "revertido" todas as alterações feitas pelo engenheiro Mohammad Moniruzzaman.
A Nvidia afirmou que também rompeu relações com Mohammad assim que o problema foi confirmado. Posteriormente, Mohammad foi condenado na Alemanha por infringir segredos comerciais relacionados ao software da Valeo.
Um juiz analisou o processo de descoberta de provas e afirmou que havia evidências "circunstanciais" suficientes para que um júri analisasse o caso.
Essa decisão foi proferida em agosto e deu à Valeo uma base para argumentar que a Nvidia obteve valor com os arquivosdent. O caso tramitava sob o título Valeo Schalter und Sensoren GmbH v. Nvidia Corp., 23-cv-05721, no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia.
Enquanto a Nvidia encerrava o capítulo jurídico com a Valeo, o Google vinha para tomar seu trono, investindo fortemente em uma nova iniciativa dentro da empresa chamada TorchTPU para tornar seus chips mais eficientes na execução do PyTorch, a estrutura de software de IA mais comum do mundo.
O CEO da Alphabet, Sundar Pichai, disse aos acionistas no evento do terceiro trimestre que seu objetivo é remover as barreiras que faziam os desenvolvedores continuarem usando hardware da Nvidia.
O Google quer que suas Unidades de Processamento Tensorial (TPUs) sirvam como uma alternativa real às GPUs da Nvidia, que ainda dominam as instalações de data centers para aprendizado de máquina. As vendas de TPUs alimentam a receita de nuvem do Google, e a empresa quer que os investidores vejam o retorno de seu investimento em IA.
O TorchTPU visa tornar as TPUs totalmente compatíveis com as ferramentas que os desenvolvedores já utilizam. Algumas equipes dentro do Google também estão debatendo a possibilidade de disponibilizar partes do software em código aberto para acelerar a adoção.
O PyTorch, fortemente apoiado pela Meta, está no centro do desenvolvimento moderno de IA. No Vale do Silício, poucos engenheiros escrevem instruções de baixo nível para chips da Nvidia, AMD ou Google. Em vez disso, eles dependem de frameworks com código pronto.
O PyTorch foi lançado em 2016 e cresceu juntamente com o CUDA, o conjunto de softwares que, segundo muitos analistas, protege a Nvidia da concorrência.
As equipes da Nvidia passaram anos aprimorando a execução do PyTorch em seus chips. O Google, por outro lado, treinou seus engenheiros em Jax, utilizando uma ferramenta chamada XLA para otimizar o desempenho em TPUs.
Esse foco interno criou uma distância entre a forma como o Google constrói sistemas de IA e a forma como os clientes realmente escrevem seus modelos. O TorchTPU visa preencher essa lacuna e dar às empresas um motivo para migrar cargas de trabalho do hardware da Nvidia.
Se você está lendo isso, já está na frente. Acompanhe nossa newsletter .