目的地搜索
动态新闻
当前位置: 首页 >> 正文
中国教育技术协会信息技术教育专业委员会多媒体画面语言学研究组(SIG-LMD)启动大会暨全国第一次学术会议成功举办
2022-05-22 21:13  

5月19日晚,中国教育技术协会信息技术教育专业委员会多媒体画面语言学研究组(SIG-LMD)启动大会暨全国第一次学术会议成功举办。共有230余位学者、高校教师、基础教育领域的教师、教研员、在校大学生、研究生以及对本领域感兴趣的同行们以线上腾讯会议的方式参与了本次会议。会议由学部教育技术系主办。

 

 


部分参会成员

 

多媒体画面语言学研究组(简称:SIG-LMD)是中国教育技术协会信息技术教育专业委员会内部首批设立的七个SIG试点之一,致力于探究数字教育资源优化设计应用的科学规律和规则,优化数字教育资源的质量,以进一步促进我国教育信息化的发展和教育数字化转型。会议分三个阶段:启动仪式、学术报告和交流研讨,由天津师范大学教育学部王雪副教授主持。

启动仪式上,教育学部部长王光明致辞。他代表学部对SIG-LMD的启动表示热烈的祝贺,提出多媒体画面语言学是天津师范大学教育学部科研的一个标志性拳头产品之一,在学部的教育学一级学科建设、博士点建设、教育技术学专业建设、基础教育服务等方面都做出了重要贡献,在三代教科研团队的共同努力下也取得了丰硕的科研和教学成果,相信随着SIG-LMD的启动也为多媒体画面语言学的研究与实践提供了新的契机,通过团队的共同努力,一定会对我国基础教育信息化发展和教育数字化转型起到非常重要的作用,并预祝大会取得圆满成功。



 

SIG-LMD带头人王志军教授介绍了多媒体画面语言学的研究概况。王志军详细解读了多媒体画面语言学的定位、研究历程、成果积淀、核心观点、研究框架、研究内容、研究范式和数据来源等。在发言的结尾,王志军进一步明确了SIG-LMD的定位:数字教育资源的研究既有稳定的科学规律可循,又受与时俱进的创新性因素的影响,研究团队类比“语言学”的研究方式,提出“多媒体画面语言学”研究系统框架,从画面语构学、画面语义学和画面语用学三个方向将各种相关因素纳入系统开展研究,并运用系统论的科学方法将三者融合起来,对数字教育资源的设计、开发和应用的规律进行深入的探讨,其规律的研究结果用多媒体画面语言语法规则的方式表达并应用,最终目标是改善数字教育资源的质量、促进我国教育信息化的发展。

 


最后,SIG-LMD秘书长王雪副教授进行SIG工作计划汇报,包括组织结构、四大目标任务和六大具体措施,并对中国教育技术协会信息技术教育专业委员会、天津师范大学教育学部、SIG-LMD同仁、学者和朋友们的支持和参与表示感谢。


 


本次会议邀请了三位优秀青年学者做学术报告,他们分别从不同视角介绍了对多媒体画面语言或多媒体画面设计的相关研究进展。天津师范大学刘哲雨副教授进行主题为“多媒体画面语言学视阈下的深度学习研究”的分享。介绍了多媒体画面语言学的内涵与外延、研究方向与研究范式、研究思路与研究方法、深度学习研究的基本思路,并深度解读了基础理论研究、实验室研究、学习行为研究、脑机制研究等方面取得的研究成果。

 


河南科技学院的冯小燕副教授进行主题为“学习投入视域下多媒体画面优化设计研究”的分享。详细分析了多媒体画面设计的现实、理论和逻辑起点、促进学习投入的多媒体画面优化设计及实证探索,并深度解读了两个研究案例“MOOC视频情感化设计评价指标体系构建和应用”“沉浸式VR环境中知识呈现方式对学习的影响研究”。

曲阜师范大学的徐振国副教授进行主题为“多媒体画面情感研究”的分享。主要介绍了学习画面情感研究、学习者情感研究、学习画面情感对学习者情感的影响研究及学习画面情感的自适应调整方法研究四方面的内容,并详细分析了相关实证研究的实验素材、技术方法、研究结论等内容。

 



在交流研讨环节,有多位老师和同学就自己感兴趣的话题与三位报告老师进行了讨论,例如:没有高科技的技术设备是否可以进行深度学习研究、建设的图像数据库是否可以共享、进行数据标注时如何保证科学性、如何进行画面的自适应调整、虚拟现实资源设计和开发的关键技术等。



通过本次启动仪式、学术报告和交流研讨活动,同仁们更加了解了中国教育技术协会信息技术教育专业委员会多媒体画面语言学研究组(SIG-LMD)。通过SIG-LMD将具有共同兴趣和志向的相关人士形成合力,创新、开放、合作、共享,也将进一步促进多媒体画面语言学理论与实践的发展,为我国的教育数字化转型贡献力量。

 

关闭窗口

版权所有:天津师范大学教育学部 电话:022-23766041 传真:022-23766041 

地址:天津市西青区宾水西道393号天津师范大学主校区 邮编:300387

Copyright: 2015 Faculty Of Education,Tianjin Normal University. All rights reserved.