• Click:

刘菊华

Personal Information

 Doctoral Supervisor  Master Tutor

Gender:Male

Education Level:With Certificate of Graduation for Doctorate Study

Alma Mater:武汉大学

Status:Employed

School/Department:计算机学院

Discipline: Other specialties in Computer Science and Technology;
Computer Applications Technology;
Other specialties in Software Engineering

Business Address:武汉大学文理学部计算机学院大楼D407

E-Mail:

Honors and Titles 2022elected:2022年中国产学研合作促进会—产学研合作创新成果二等奖; 2021elected:2021年“建行杯”第四届湖北省“我梦见——楚天创客”大赛铜奖; 2021elected:2021年武汉大学第七届“互联网+”大学生创新创业大赛二等奖; 2017elected:湖北省青年科技晨光计划

Personal Profile

刘菊华,武汉大学计算机学院教授,博士生导师。主要从事计算机视觉、医学影像分析、大模型训练与应用等方向研究,在目标检测、医学影像智能诊断、遥感影像智能解译、文本信息提取与分析、大模型等领域积累丰富的研发经验。目前,以第一或通讯作者身份在IEEE TPAMIIJCVIEEE TIPIEEE TKDEIEEE TASLPNeurIPSCVPRACLAAAIIJCAIACM MMEMNLP等国际知名期刊与会议上发表学术论文50余篇;担任包括IEEE TPAMI、IJCV、IEEE TIP、IEEE TCYB、IEEE TNNLS、IEEE TMM、IEEE TASLP、IEEE TIM、Pattern Recognition等SCI期刊审稿人,担任NeurIPS、CVPR、ACL、AAAI、IJCAI、ACM MM、EMNLP、ICASSP、ICME等人工智能领域顶级会议PC近五年主持和参与相关纵向研究课题10余项,其中作为项目/课题负责人主持国家自然科学基金3项、湖北省自然科学基金面上项目1项、中国博士后科学基金1项、苏州市产业技术创新专项-前瞻性应用研究项目1项、中央高校基本科研业务费专项资金项目2项;提出的文本检测与识别方法在ICDAR 2013\2015\2019-ArT、Total-Text、CTW1500、SVTP、CUTE80等多个公开数据集上取得目前最优性能;联合京东探索研究院训练大规模语言模型织女V1(2022年1月,参数规模15亿)与织女V2(2022年10月,参数规模60亿),先后登顶国际自然语言理解任务顶级测试GLUESuperGLUE榜首;训练多个7B、14B规模的医学语言大模型和医学多模态大模型,其中训练的14B医学语言模型中文医疗大模型权威评测平台MedBench位列第二,7B医学语言大模型以最少参数规模位列第五(2024年9月)。




Google Scholar: https://scholar.google.com/citations?hl=zh-CN&user=wN-rIgIAAAAJ&view_op=list_works




2025年入学博士生还有指标,欢迎有大模型相关领域基础的同学与我联系!

课题组每年有多个硕士和博士招生名额,欢迎有志青年报考!尤其欢迎对语言/多模态大模型相关领域感兴趣的同学!

联系邮箱:liujuhua@whu.edu.cn




学术动态:

2024年

●        博士生叶茂源论文“Hi-SAM: Marrying Segment Anything Model for Hierarchical Text Segmentation”被人工智能顶刊IEEE TPAMI(CCF A)录用。Github:https://github.com/ymy-k/Hi-SAM/(基于SAM的多层次统一文本分割)

●        博士生钟起煌荣获武汉大学研究生学术创新奖”一等奖。恭喜起煌!!!

●        博士生贺海斌、叶茂源共同一作论文“GoMatching: A Simple Baseline for Video Text Spotting via Long and Short Term Matching”被人工智能领域顶会NeurIPS 2024(CCF A)录用。(基于DeepSolo构建视频text spotting基准)

●        博士生钟起煌论文“Learning from Imperfect Data: Towards Efficient Knowledge Distillation of Autoregressive Language Models for Text-to-SQL”被自然语言处理领域顶会EMNLP 2023 (CCF B)录用。大模型部署 - 知识蒸馏

●        博士生宣文杰论文“When ControlNet Meets Inexplicit Masks: A Case Study of ControlNet on its Contour-following Ability”被多媒体领域顶会ACM MM 2024(CCF A)录用。(形状感知ControlNet

●        博士生贺海斌论文“Diff-Font: Diffusion Model for Robust One-Shot Font Generation”被计算机视觉顶刊IJCV(CCF A)录用。基于扩散模型的One-Shot字体生成

●        博士生钟起煌论文“ROSE Doesn't Do That: Boosting the Safety of Instruction-Tuned Large Language Models with Reverse Prompt Contrastive Decoding”被自然语言处理顶会ACL 2024 (CCF A)录用。(大模型部署 - 安全

●        博士生钟起煌论文“Revisiting Knowledge Distillation for Autoregressive Language Models”被自然语言处理顶会ACL 2024 (CCF A)录用。(大模型部署 - 知识蒸馏

●        博士生论文“RFL-CDNet: Towards Accurate Change Detection via Richer Feature Learning”被模式识别国际知名期刊Pattern Recognition(CCF B)录用。(基于多尺度特征引导的变化检测方法

●        博士生钟起煌获首批国家自然科学基金青年学生基础研究项目(博士研究生)资助。恭喜起煌!!!

●        博士生钟起煌论文“PANDA: Prompt Transfer Meets Knowledge Distillation for Efficient Model Adaptation”被数据挖掘顶刊IEEE TKDE(CCF A)录用。(大模型微调)

2023

●        硕士生叶茂源荣获“武汉大学研究生学术创新奖”二等奖。恭喜茂源!!! 

●        博士生钟起煌论文“E2S2: Encoding-Enhanced Sequence-to-Sequence Pretraining for Language Understanding and Generation”被数据挖掘顶刊IEEE TKDE(CCF A)录用。(大模型预训练 - 编码增强)

●        博士生钟起煌荣获首届“雷军卓越奖学金”(奖金:10W)。恭喜起煌!!!

●        硕士生朱妙熹、博士生钟起煌共同一作论文“Zero-shot Sharpness-Aware Quantization for Pre-trained Language Models”被自然语言处理领域顶会EMNLP 2023 (CCF B)录用。(大模型部署 - 零样本量化)

●        博士生宣文杰论文“PNT-Edge: Towards Robust Edge Detection with Noisy Labels by Learning Pixel-level Noise Transitions”被多媒体领域顶会ACM MM 2023(CCF A)录用。(面向边缘检测的噪音标签学习方法)

●        一作论文“Unified Instance and Knowledge Alignment Pretraining for Aspect-based Sentiment Analysis”历时两年被国际知名期刊IEEE/ACM TASLP (CCF B)录用。(方面级情感分析方法)

●        博士生钟起煌论文“Revisiting Token Dropping Strategy in Efficient BERT Pretraining”被自然语言处理顶会ACL 2023 (CCF A)录用。(大模型预训练 - Token Dropping预训练)

●        博士生钟起煌论文“Self-Evolution Learning for Discriminative Language Model Pretraining”被自然语言处理顶会ACL 2023 (CCF A)录用。(大模型预训练 - 自进化学习)

●        硕士生叶茂源论文“DeepSolo: Let Transformer Decoder with Explicit Points Solo for Text Spotting”被计算机视觉顶会CVPR 2023 (CCF A)录用。(基于Transformer的text spotting,Decoder同时输出文本的类别、中心线、外接矩形框、掩码、识别结果)

●        博士生钟起煌论文“Knowledge Graph Augmented Network Towards Multiview Representation Learning for Aspect-based Sentiment Analysis”被数据挖掘顶刊IEEE TKDE(CCF A)录用。(方面级情感分析方法)

●        硕士生叶茂源论文“DPText-DETR: Towards Better Scene Text Detection with Dynamic Points in Transformer”被人工智能顶会AAAI 2023(CCF A)录用。(动态点Query场景文本检测模型DPText-DETR)

2022年

●        博士生钟起煌论文“Improving Sharpness-Aware Minimization with Fisher Mask for Better Generalization on Language Models”被自然语言处理领域顶会EMNLP 2022 (CCF B)录用。(语言模型优化方法)

●        硕士生刘佳、宣文杰共同一作论文“An End-to-end Supervised Domain Adaptation Framework for Cross-Domain Change Detection被模式识别国际知名期刊Pattern Recognition(CCF B)录用。(基于监督域适应的变化检测方法)

●        联合京东探索研究院训练织女v2模型登顶国际复杂语言理解测试SuperGLUE榜首(队名:JDExplore d-team, 2022年10月,参数规模60亿) https://super.gluebenchmark.com/leaderboard

●        联合京东探索研究院训练织女v1模型登顶国际自然语言理解测试GLUE榜首(队名:JDExplore d-team, 2022年1月,参数规模15亿 https://gluebenchmark.com/leaderboard

●        硕士生叶健论文“I3CL: Intra-and Inter-Instance Collaborative Learning for Arbitrary-shaped Scene Text Detection”被计算机视觉顶刊IJCV(CCF A)录用。(实例内和实例间协作学习I3CL的任意形状文本检测方法)

●        博士生何玥论文“Visual Semantics Allow for Textual Reasoning Better in Scene Text Recognition”被人工智能顶会AAAI 2022(CCF A)录用。(文本识别方法)

        硕士生宣文杰论文“FCL-Net: Towards Accurate Edge Detection via Fine-scale Corrective Learning”被神经网络国际知名期刊Neural Networks(CCF B)录用。(图像边缘检测方法)

Other Contact Information

ZipCode:

PostalAddress:

email:

Educational Experience

    No Content

Work Experience

  • 2022.12-Now

     武汉大学  | 教授 
     

  • 2019.4-2022.11

     武汉大学  | 副教授 
     

  • 2018.3-2019.3

     悉尼大学  | 访问学者 
     

  • 2014.7-2019.3

     武汉大学  | 讲师 
     

Social Affiliations

Research Focus

Research Group

No Content