.
登录 | 西安电子科技大学 | 手机版 | 扫描二维码访问手机版
语种切换

梁雪峰

教授
+

基本信息

教师姓名: 梁雪峰
教师英文名称: Liang Xuefeng
教师拼音名称: LXF
电子邮箱: xliang@xidian.edu.cn
入职时间: 2018-04-12
学历: 博士研究生毕业
办公地点: 北校区主楼II区419
性别:
联系方式: xliang@xidian.edu.cn
学位: 博士学位
职称: 教授
在职信息: 在职
毕业院校: 日本北陆先端科学技术大学院大学
是否在职:
博士生导师 博士生导师
硕士生导师 硕士生导师
所属院系: 人工智能学院

联系方式

暂无内容

个人简介

. / Personal Profile

基本信息

山东烟台人。于2003年从西安电子科技大学计算机专业获得硕士学位,之后东渡日本,在 Japan Advanced Institute of Science and Technology 的浅野哲夫教授指导下从事计算几何的理论研究和其在模式识别中的应用,期间多次获得石川县和学校的研究奖励金,2006 年获得博士学位。2006-2008 年间获得日本JST研究员项目资助,在日本产业综合技术研究所从事机器人视觉研究。2008 年同时加入英国伦敦大学学院(世界排名第7,QS排名)心理学系,伦敦玛丽女皇大学(世界排名第121)计算机学院从事视觉感知和视觉认知研究。2010 年受邀以副教授身份加入日本京都大学(世界排名第36)信息学院。2018 年4月受聘为华山特聘教授加入西安电子科技大学人工智能学院。

 

研究领域集中在:视觉认知计算(心理学),计算机视觉,视觉大数据挖掘,智能算法等。

 

主持完成英国皇家学会 (Royal Society) 国际交流项目1项,日本国家学术振兴会 (JSPS) 项目2项,京都大学校长裁量项目1项,日本企业合作研发项目2项。组织或协同组织过多次国际会议,并为2个国际期刊的副主编。 



更多信息请访问 http://web.xidian.edu.cn/xliang/index.html


For more detailed information, please refer to http://web.xidian.edu.cn/xliang/en/index.html



新闻

  1. 我与京都大学合作利用AI技术研究心理认知的论文 "Putative Ratios of Facial Attractiveness in a Deep Neural Network" 被心理学期刊 Vision Research 录用,这是近几年我最满意的研究工作之一

  2. 我担任 The 8th International Conference on Information Technology: IoT and Smart City 会议主席,ICIT 2020 将于2020年12月25-27日在西安召开。

  3. 我们的论文 "Jointly Discriminating and Frequent Visual Representation Mining" 被ACCV 2020录用,恭喜各位同学!

  4. 我们的两篇论文被ICCV 2019录用,其中 "AFD-Net: Aggregated Feature Difference Learning for Cross-Spectral Image Patch Matching" 录为Oral,恭喜各位同学!(Oral acceptance ratio 4.3%)

  5. 我们两篇论文被国际会议 The 26th IEEE International Conference on Image Processing (ICIP2019) 录用

  6. 受清华大学交叉研究院邀请,于5月13日做学术报告。

  7. 我们的论文Wide or Narrow? A Visual Attention Inspired Model for View-Type Classification, 已被 IEEE ACCESS, IF(4.49)录用. [Link]

  8. 我们在国际期刊 Signal Processing Image Communication (Elsevier) 组织了特刊 The Deep Learning in Computational Photography” 欢迎各位老师同学投稿!

  9. 我们的论文 “Cross-spectral Image Patch Matching by Learning Features of the Spatially Connected Patches in a Shared Space” 已被国际会议ACCV 2018录用!

  10. Our paper "An External Learning Assisted Self-examples Learning for Image Super-resolution" has been accepted by Neurocomputing (ELSEVIER), IF(3.317)[Link]

  11. 我们在人工智能国际顶级会议 IJCAI-ECAI 2018 中组织了主题为“可解释的深度学习”的研讨会 "Interpretable & Reasonable Deep Learning and its Applications (IReDLiA)"

  12. 本人被授予 日本京都府知事奖

  13. Our paper "A Deep Learning Framework for Remote Sensing Image Registration" has been accepted by ISPRS Journal of Photogrammetry and Remote Sensing (ELSEVIER), IF(6.387). [Link]

  14. Our paper "How Does the Low-Rank Matrix Decomposition Help Internal and External Learnings for Super-Resolution" has been accepted by IEEE Transactions on Image Processing, IF(4.828). [Link]

  15. I serve as an expert advisor for the Chinese AI Research Association (Japan).

  16. Our paper "Robust coupled dictionary learning with ℓ1-norm coefficients transition constraint for noisy image super-resolution" has been accepted by Signal Processing (ELSEVIER), IF(3.470). [Link]



组织学术活动

  1. The 7th International Conference on Information Technology: IoT and Smart City (ICIT 2019), 20-23, 12月, 2019, 上海,中国。

  2. The 2nd International Conference on Data Science and Information Technology, 19-21,7月,2019,首尔,韩国。

  3. Leading Guest Editor of Special Issue of “The Deep Learning in Computational Photography” in International Journal Signal Processing Image Communication (Elsevier) [Link].

  4. International workshope "Interpretable & Reasonable Deep Learning and its Applications (IReDLiA)" in conjunction with IJCAI-ECAI 2018. 

  5. International Conference on Video and Image Processing. 27-29, 12月, 2017, 新加坡,南洋理工大学.

  6. Kyoto University & Queen Mary University of London Joint Workshop, Intelligent Sensing on Media Data. 26~27,3月, 2015, 日本京都大学。

  7. Kyoto University & University College London Workshop on Perception of Motion and Pattern. 12,3月,2013,日本京都大学。

  8. Kyoto University & Queen Mary University of London Symposium on Intelligent Sensing. 18~20,3月,2013, 日本京都大学。



受邀演讲

  1. "View Angles may Reveal Your Mood: A psychological explanation and an example in the real world",清华大学交叉研究院,2019年5月,中国北京。

  2. "View Angles may Reveal Your Mood: A psychological explanation and an example in the real world",International Conference of Union of Mathematical Imaging (UMI2019),2019年5月,中国北京。

  3. "Learning the Shared Feature from Cross Domains for Vision Applications & Tackling Data Issues in the Real World Scenario", @ Kyoto University, 2018年8月,日本京都。

  4. "Happier Mood Trigger Bigger Pictures", @ International Workshop on Bio-inspired Systems, Bio-electronics, Machine Intelligence, 2018年1月,台湾省。 

  5. "Viewing Bigger Pictures Promotes Happier Mood: a psychological explanation and an example in the wild", @ International Conference on Video and Image Processing, 2017年12月,新加坡。

  6. "Visual Attention and Emotion", @ The 19th Academic Symposium of the Key Laboratory of Intelligent Perception and Image Understanding of Ministry of Education, 2017年10月,中国。

  7. "Studying Visual Attention in Image and Video", @ The 9th International Conference on Intelligent Robotics and Applications,2016年8月,日本。

  8. "Modeling visual attention in image and video", @ Kyoto-Bordeaux mini-symposium, 2016年,2月,日本。

  9. "How does Robot Understand the Visual Motion?", @ 京都大学-学术日,2015年,10月,日本。

  10. "Motion Segmentation in Complex Video", @ 天津大学,2015年,8月,中国

  11. "Salient Motion Detection from Complex Video using Potential Surface", @ 国立首尔大学,2013年,9月,韩国。

  12. "Salient Information, from Static to Dynamic", @ 国立清华大学,2013年3月,台湾省。



长期代为我的研究合作者 日本京都大学(世界排名第36)信息学教授每年招收<=3 硕士/博士生。

具体要求:对视觉心理认知具有强烈兴趣;对计算机视觉有丰富经验;211,985毕业;托福成绩100以上;本科生需以第1或2作者发表过CCF B类以上的国际会议或期刊论文,硕士生需以第1或2作者发表过CCF A类国际会议或期刊论文;对日语没有要求,全英文指导。


教育经历

暂无内容

工作经历

暂无内容

社会兼职

暂无内容

团队成员

    暂无内容

[1]视觉认知计算(心理学)
计算机视觉
视觉大数据挖掘
智能算法

学术荣誉

/Academic honor

暂无内容

招生信息

/ admission information

硕士研究生

序号 学院 专业 年份
1 人工智能学院 “计算机科学与技术”和“模式识别与智能系统” 2021

招生信息

/ admission information

博士研究生

序号 学院 专业 博士研究方向 年份
1 人工智能学院 "计算机科学与技术”和“模式识别与智能系统” 视觉认知计算与情感计算,可解释深度学习 2021

曾获荣誉:

/Academic honor

暂无内容