Sobre a Empresa
A Farfetch é a principal plataforma global para a indústria da moda de luxo, conectando criadores, curadores e consumidores. Com sede em Portugal e escritórios em todo o mundo, somos impulsionados pela tecnologia e pela inovação para revolucionar a forma como o mundo compra moda, utilizando dados e inteligência artificial para otimizar cada aspeto da nossa plataforma.
Descrição do Trabalho
Estamos à procura de um Treinador de Algoritmo de Pesquisa de Imagem com Foco Visual para se juntar à nossa equipa de Ciência de Dados e Machine Learning. Nesta função, será responsável por refinar, otimizar e treinar os nossos algoritmos de pesquisa de imagem, com um foco particular na precisão visual e relevância para o utilizador. Trabalhará em estreita colaboração com engenheiros de ML e cientistas de dados para melhorar a experiência de pesquisa dos nossos clientes, garantindo que as imagens e produtos certos sejam descobertos de forma eficiente e intuitiva. O seu trabalho terá um impacto direto na capacidade dos nossos utilizadores de encontrar os produtos de moda que desejam.
Principais Responsabilidades
- Analisar e interpretar grandes conjuntos de dados visuais para identificar padrões e tendências.
- Desenvolver e implementar estratégias de treino para algoritmos de pesquisa de imagem, focando na performance e relevância visual.
- Avaliar e otimizar modelos de machine learning para pesquisa e classificação de imagens.
- Colaborar com equipas de engenharia para integrar algoritmos treinados em sistemas de produção.
- Realizar testes A/B e análises de desempenho para validar melhorias nos algoritmos.
- Manter-se atualizado com os mais recentes avanços em visão computacional e machine learning.
- Documentar processos, metodologias e resultados de forma clara e concisa.
Habilidades Necessárias
- Experiência comprovada em machine learning, visão computacional ou processamento de imagem.
- Proficiência em Python e bibliotecas relevantes (TensorFlow, PyTorch, OpenCV, Scikit-learn).
- Familiaridade com arquiteturas de redes neuronais (CNNs, Transformers) e suas aplicações em imagem.
- Conhecimento de técnicas de avaliação de modelos e métricas de desempenho.
- Capacidade analítica forte e paixão por resolver problemas complexos com dados.
- Excelentes habilidades de comunicação e trabalho em equipa.
Qualificações Preferenciais
- Mestrado ou Doutoramento em Ciência da Computação, Engenharia, Matemática Aplicada ou área relacionada.
- Experiência com plataformas de cloud (AWS, GCP, Azure) e ferramentas de MLOps.
- Conhecimento de bases de dados e SQL.
- Experiência em e-commerce ou moda.
- Portfólio de projetos relevantes ou contribuições para a comunidade open-source.
Vantagens e Benefícios
- Salário competitivo e pacote de benefícios.
- Ambiente de trabalho dinâmico e inovador.
- Oportunidades de desenvolvimento profissional e crescimento de carreira.
- Seguro de saúde abrangente.
- Horário de trabalho flexível e modelo híbrido.
- Descontos exclusivos em produtos de luxo.
- Eventos sociais e atividades de team-building.
- Acesso a tecnologia de ponta e infraestruturas avançadas.
Como Candidatar-se
Se tem interesse nesta vaga, clique no botão "Candidate-se Agora" abaixo. Para garantir que a sua candidatura seja considerada, por favor prepare o seguinte:
- Um Currículo (CV) atualizado
- Uma breve carta de apresentação resumindo a sua experiência e motivação
As candidaturas são analisadas continuamente. Apenas os candidatos pré-selecionados serão contactados para uma entrevista.
⚠️ Aviso Importante
Bem-vindo ao Westford Trust. Publicamos oportunidades de emprego agregadas de fontes públicas, empregadores e portais de emprego. Nós nunca cobramos taxas pelo acesso ou uso do nosso website; todas as informações são disponibilizadas de forma totalmente gratuita.
O Westford Trust não oferece nem gere estas vagas diretamente, nem estamos envolvidos no processo de contratação para as vagas publicadas em https://pt.westfordtrust.com.
Se suspeita de uma oferta fraudulenta ou tem alguma dúvida, por favor contacte-nos através de techturna@gmail.com.