第1回 語彙・コロケーション研究会

内田科研・森田科研共済の第1回 語彙・コロケーション研究会を2024年12月14日にJR博多シティ9F会議室4にて開催します。対面のみの開催です。また,会場の都合で先着20名までの受付とさせていただきます。

プログラムや詳細はこちらからご確認ください。

懇親会につきましては,参加ご希望の方に後日連絡を差し上げます(6000円程度を考えています。)

ご質問やキャンセルのご連絡は,morita(a)hiroshima-cu.ac.jpまでお願いいたします((a)は@に変更してください)

論文の訂正/Corrigendum to Morita, Uchida, and Takahashi, (2021).

以下の論文のTable 5.及びAppendix Bに誤りがありましたので、訂正いたします。この訂正は、全国英語教育学会の事務局及び編集委員会にてご議論いただき、筆頭著者である森田のサイトに掲載する許可を得ています。また、ご指摘いただいた方にもこの場を借りてお礼申し上げます。

対象論文:Morita, M., Uchida, S., and Takahashi, Y. (2021). The frequency of affixes and affixed words in Japanese senior high school English textbooks; A corpus study. ARELE: Annual Review of English Language Education in Japan, 32, 81-95

Corrigendum to Morita et al 2021

2022年の振り返り

2022年というか,2022年度(2022年4月以降)の振り返り。まずは,職場が新しくなり,仕事内容が大きく変わったと件について。これまでは,教養教育(共通教育や一般教育などとも呼ぶ)の英語を教える立場で,近年はマネージメントとしての役割が大きかった。しかし,着任した広島市立大学では,専門科目がメインとなり,さらに,それまでとは異なり学生に直接関わる委員会活動などが多くなった。

専門科目としては,国際学部の「基礎演習」,「発展演習I」,「応用言語論I・II」,「英文構成法I・II」を担当した。1年から3年生が履修する科目を満遍なく教えていることになるが,私が所属する言語コミュニケーション・プログラムを最初から考えている学生だけではなくて,多様な興味関心を持っている学生が,その興味関心の中心となるものを探しながら,学んでいるのが印象的だった。そういう多彩な学生がいるので刺激も多いし,学びも多い。もちろん,自分の専門としては,言語コミュニケーションの学生の興味関心に応えやすいのだけれど,そこでも新しく学ぶべきことが多い。

授業としては,全て新規なので,1から作り上げる1年間。特に,応用言語論は専門科目として気合が入るところだけれど,まずは,応用言語学という幅広い分野でできるだけ多くのことを浅く広く取り上げて,どんなものに受講生の興味関心がありそうか探ることにした。そんなわけで,授業資料を作るので手一杯で,ハンドアウトや振り返り用の課題などはほとんど手をつけられなかった。3年計画で練る予定の授業とは言え,もう少し充実させることができたはず。

上記の科目以外に,学部のゼミとして,3年生と4年生の卒論関係の指導も担当。4年生は,前任の先生がしっかりと指導してくれていたので,進み具合としては良い(はずだったが,卒論の完成は年またぎ)。3年生ももっと体系的に指導すればよかったな,と反省。次年度に向けて課題を洗い出しておこう。

大学院も「応用言語論I・II」を担当して,リサーチメソッドを中心とした。留学生もいるので,ほぼ英語で,たまに日本語で授業をしている。こちらは,それほど苦労していないけど,課題や試験のあり方をもう少し検討すべきかな。実際に論文を読んで検討する時間がもっとあっても良いはず。

さて,新しい職場ということで,研究の方は遅滞気味。今年の出版は1本で,これも昨年度投稿したものが1年近くかかって出版されたもの。研究発表もバタバタとしていて行っておらず,久しぶりに研究発表がゼロの年。それまでが多めだったので,一旦お休みなのだけれど,データやプロポーザルはたくさんあるので,来年は溜まったものをどんどん出していこう。

最後に,今回の異動で3校目。どうして異動したのかと言われたら,複合的な理由ですとしか言えない。そして,異動したことが良いか悪いか,後悔はしていないか,という問いに対しては,毎日答えが変わる。でも,今の所,楽しいと感じることが多いので,良かったと言える。来年の今頃の答えは分からないけれど。

Uchihara, T., Webb, S., & Yanagisawa, A. (2019)

Uchihara, T., Webb, S., & Yanagisawa, A. (2019). The Effects of Repetition on Incidental Vocabulary Learning: A Meta-Analysis of Correlational Studies. Language Learning, 69(3), 559–599. https://doi.org/10.1111/lang.12343

このメタ分析の目的は、遭遇回数と語彙学習との間の相関係数を報告した主要研究をメタ分析することで、反復と第二言語(L2)の付随的語彙学習との間の複雑な関係を明らかにすることである。26の研究(N = 1,918)から45の効果量を合成して定量的に分析し、頻度と学習の関係の平均効果量を算出し、この研究で注目した10の変数がこの関係をどの程媒介するかを調べた。その結果、反復学習には中程度の効果(r =.34)があることが示された。その後の媒介分析の結果、反復効果の大きさのばらつきは、学習者変数(年齢、語彙知識)、処遇変数(間隔をおいた学習、視覚的サポート、エンゲージメント、遭遇回数の範囲)、方法論の違い(非単語使用、理解度テストの予告、語彙テストの形式)によって説明されることが明らかになった。これらの結果をもとに、今後のL2付随語彙学習研究の方向性を示唆する。

ggplot2の備忘録

毎回,グラフを作るときに忘れてしまうので,メモとして書き残しておこう。

まずは,サンプルデータで,基本的な折れ線グラフを書く。

library(ggplot2)
data.frame(day = 1:10, access =c(1,2,4,6,8,10,12,14,16,18))
ggplot(dat,aes(x=day, y=access))+geom_line()

見た目の変更1

ggplot(dat,aes(x=day, y=access))+geom_line()+ylim(0,30)+xlim(0,10)+labs(x="日付", y="アクセス数", title="アクセス記録分析")+theme_bw()

見た目の変更2

ggplot(dat, aes(x=day, y=access)) + geom_line()+ylim(0,30)+xlim(0,10)+labs(x="日付", y="アクセス数", title="アクセス記録分析")+theme_bw()+theme(panel.grid.major = element_line(colour = "#AAAAAA"), text=element_text(size=12, family="mincho"), axis.text.x = element_text(size=12),axis.text.y = element_text(size=12))

ポイント

theme(panel.grid.major = element_line(colour = “#AAAAAA”), text=element_text(size=12, family=”mincho”), axis.text.x = element_text(size=12),axis.text.y = element_text(size=12))

theme(panel.grid.major = element_line(colour = "#AAAAAA"), #補助線の目盛りのある方(major)の色を少し濃い目のグレーにする
text=element_text(size=12, family="mincho"), #図に中の文字フォントのサイズとフォントを変更
axis.text.x = element_text(size=12),#x軸の目盛りの数字を大きく
axis.text.y = element_text(size=12))#y軸の目盛りの数字を大きく

リッカートスケールで得たアンケート・データの視覚化:likert Package + HH package (その3)

以前の「リッカートスケールで得たアンケート・データの視覚化:likert Package + HH package (その2)」への追記です。

回答の中に0%があると,グラフにも0%と出てしまうので,それを消したいと思っていたころ,displaying percentage per category in likert stacked proportion barplots に方法があったので,そちらを用いることにした。myPanelFuncの後半部分の変更。

myPanelFunc <- function(...){
  panel.likert(...)
  vals <- list(...)
  DF <- data.frame(x=vals$x, y=vals$y, groups=vals$groups)

  ### some convoluted calculations here...
  grps <- as.character(DF$groups)
  for(i in 1:length(origNames)){
    grps <- sub(paste0('^',origNames[i]),i,grps)
  }

  DF <- DF[order(DF$y,grps),]

  DF$correctX <- ave(DF$x,DF$y,FUN=function(x){
    x[x < 0] <- rev(cumsum(rev(x[x < 0]))) - x[x < 0]/2
    x[x > 0] <- cumsum(x[x > 0]) - x[x > 0]/2
    return(x)
  })

  subs <- sub(' Positive$','',DF$groups)
  collapse <- subs[-1] == subs[-length(subs)] & DF$y[-1] == DF$y[-length(DF$y)]
  DF$abs <- abs(DF$x)
  DF$abs[c(collapse,FALSE)] <- DF$abs[c(collapse,FALSE)] + DF$abs[c(FALSE,collapse)]
  DF$correctX[c(collapse,FALSE)] <- 0
  DF <- DF[c(TRUE,!collapse),]

  DF$perc <- round(ave(DF$abs,DF$y,FUN=function(x){x/sum(x) * 100}), 0)


  ## Here goes 6 lines that have been changes - AK
  # here we modify the column with labels a bit:
  DF$perc <- paste0(DF$perc,'%')
  # change all "0%" to blanks
  DF$perc[DF$perc == "0%"] <- ""
  # the argument label is a bit modified too
  panel.text(x=DF$correctX, y=DF$y, label=DF$perc, cex=0.7)
}

Pavia, N., Webb, S., & Faez, F. (2019). Incidental Vocabulary Learning Through Listening To Songs. Studies in Second Language Acquisition, 41, 1–24.

Pavia, N., Webb, S., & Faez, F. (2019). Incidental Vocabulary Learning Through Listening To Songs. Studies in Second Language Acquisition, 41, 1–24. https://doi.org/10.1017/S0272263119000020

これまでの歌を聴くことによる偶発的な語彙学習に関する研究は,主に参加者のリスニング行動とその行動と語彙知識の関係を自己報告させるものであった(Kuppens, 2010)。歌を聴くことが語彙学習に寄与するということを実証的に調査した研究は一つしかない(Medina, 1993)。その結果から,歌を聴くことで語彙学習が起こると結論づけた。しかしながら,どれほどの学習効果があったかは示されなかった。本研究では,2つの歌を聴くことで語彙の3つの側面(話された語の認識,形式と意味のつながり,コロケーションの認識)において偶発的な学習が起こるかを調査した。1曲を繰り返し聞くこと(1回,3回,5回)と目標となる語彙への接触頻度の学習への寄与も調査された。結果として,以下のことが分かった。(a) 歌を聴くことは語彙学習に寄与する,(b) 繰り返し聞くことは語彙学習に寄与する,そして,(c) 接触頻度も語彙学習効果に肯定的な効果がある。

[Abstract]

Research investigating incidental vocabulary learning through listening to songs has primarily relied on participant’s self-report surveys on listening behaviors and its relationship with their vocabulary knowledge (Kuppens, 2010). Only one experimental study has investigated vocabulary learning gains from listening to songs (Medina, 1993). From the results, the researcher concluded that learning does occur from listening to songs. However, the learning gains were not provided. The present study investigated incidental learning of three vocabulary knowledge dimensions (spoken-form recognition, form-meaning connection, and collocation recognition) through lis- tening to two songs. The effects of repeated listening to a single song (one, three, or five times) and the relationship between frequency of exposure to the targeted vocabulary items and learning gains were also explored. The results indicated that (a) listening to songs contributed to vocabulary learning, (b) repeated listening had a positive effect on vocabulary gains, and (c) frequency of exposure positively affected learning gains.
INTRODUCTION

合計点で成績をつける場合の#N/Aの処理

Excelで合計点を出して,成績をつける場合に,関数でIfsを使う。例えば,

  • 90点以上はS
  • 80点以上はA
  • 70点以上はB
  • 60点以上はC
  • 60点未満はD

なので,以下の場合は問題なし。

  A B C
1 ID テストの得点 評価
2 S001 70 B
3 S002 90 S
4 S003 50 D
….    
41 S040 60 C

この場合,

  • 評価のC1は,=IFS(B2 >= 90,”S”,B2 >= 80,”A”,B2 >= 70,”B”,B2 >= 60,”C”,B2 <= 59.9,”D”)

問題になるのは,途中に#N/Aがある場合,上のようにすると,以下のように#N/Aが評価に出る。

  A B C
1 ID 合計点 評価
2 S001 #N/A #N/A
3 S002 90 S
4 S003 50 D
….    
41 S040 60 C

 

解決策としては,#N/Aはエラーの扱いなので,IfERRORでエラーが出たらDをつけるようにする。

  • 評価のC1は,=IFERROR(IFS(B2 >= 90,”S”,B2 >= 80,”A”,B2 >= 70,”B”,B2 >= 60,”C”,B2 <= 59.9,”D”),”D”)

とすると,まずは,エラーかどうかを評価し,エラー(#N/A)なら”D”を返し。そうでなければ,IFS以下の評価を返す。

 

 

リッカートスケールで得たアンケート・データの視覚化:likert package (その1)

Google formでアンケートデータを取ることが増えているので,その視覚化のための備忘録。使うパッケージはlikert
データとしては,以下のイメージ。質問項目は,Q1からQ5まであって,例えば,1が「全く良くない」で,5が「とても良い」のような5件法だとする。

Q1 Q2 Q5
1 4 5
5 3 3
….
library(likert)
library(plyr)

dat=read.csv("likert_test.csv",na.strings=c("", "NULL")) #データの読み込み。実際のデータでは,空白,つまり無回答ということもあるので,空白をNAと判定させる。
dat2 <- data.frame(lapply(dat, factor, levels=1:5)) #datの中身をfactor(文字列)に変換。その際に,五件法なので範囲を1から5までとする。つまり,ある設問への反応として1が含まれていない場合などでも,1が0回とするための処置。その上で,データ・フレームにする。
dat2 <- na.omit(dat2) #念のため,NAデータを削除

dat3 <- likert(dat2) #各設問への反応をまとめる
likert.bar.plot(dat3, #対象データファイル
        ordered=FALSE, #反応の順番。1から5の順。
        group.order=c("Q1","Q2","Q3","Q4","Q5"), #今回の場合,指定しないと反応1が少ない順に並べられる。ここでの指定では,Q1からQ5への並べる 
        plot.percent.high=FALSE,#指定しないと,高い反応(4と5)の割合(%)を表示
        plot.percent.low=FALSE, #指定しないと,低い反応(1と2)の割合(%)を表示
        plot.percent.neutral=FALSE, #指定しないと,中間の反応(3)の割合(%)を表示
        plot.percent=TRUE #指定すると,各反応の割合を表示
)
+theme_bw() #プロットの背景色などのスタイルを指定。今回は白黒。
+theme(legend.position = "bottom", #凡例をプロットの下に表示。
legend.direction = "horizontal" #水平に配置。
)

1 2