【团队&工作介绍】 近年来bert, gpt3等预训练模式的兴起将NLP和CV方向推向了新的高度。我们组今年初也在数百张V100/A100 GPU的算力下完成了百亿中文多模态预训练模型,下个月即将发布千亿规模参数模型(目前均是中文最大规模)。下游任务有各类纯文本benchmark, VQA, Image Captioning,各类few/zero shot任务,以及比较难的文本到图像的生成/编辑(已基本达到DALLE的Demo水准)。当下我们正求贤若渴,非常欢迎有相关背景,经验的同学一起加入实习,一起做出更有影响力的工作。
【职位】 Research Intern / 校招实习
【职位要求】 需要有以下topic相关的经验(之一): - NLP/CV Pretraining - NLP/CV下游benchmark优化 - Text2Image Synthesis - 大规模分布式模型加速
另外对组内其他方向感兴趣的同学也欢迎来聊,需要有以下topic相关的经验(之一): - Compositional Generalization - Lifelong/Continual Learning - Critique Recommendation/Retrieval
【联系方式】 欢迎希望做出有大范围影响力工作)的同学加入。 感兴趣的同学请将简历发往ericzhou.zc@alibaba-inc.com, 标题请注明【姓名-年级-研究方向】
|