わさび唐辛子

いざという時のための備忘録

Scala関西サミット2018振り返り

Scala関西サミットでスタッフをしました

2018.scala-kansai.org

 

Scala関西サミットには、2015年の第1回から参加しています。2015、2016年は聴講者として参加し、2017年は当日スタッフとしてお手伝い、そして2018年は正式スタッフとしてScala関西サミットに参加しました。

f:id:louvre24:20181117225449j:plain

 

私自身、Scalaを仕事で使ったことは一度もなく、『Scala面白そうだなー』と思っていた2015年にたまたまScala関西サミットの存在を知り、それ以降たまに自宅プログラミングしてみたりといった程度のScalaレベルです。

しかも、カンファレンススタッフの経験も今回が初めてなので、『Scalaもカンファレンスのことも、あんまよくわからん』の状態でスタッフとして参加させてもらいました。

 

そんなヤツがスタッフなんかできるの?

最初はかなりビビってました。邪魔にならないかなって不安でした。ですが、Scala関西サミットを終えてみて『やってみて良かった!』と思っています。

 

どんなことやったの?

Slackを遡ると、3/24にキックオフミーティングが開かれていました。そこからは、毎月1回オンラインミーティングが開かれました。仕事の都合をつけられないことも多々あり、50%程度しか参加できませんでしたが、議事録取るのは素人でもできそうなので議事録頑張りました(笑)。

あと、スタッフパーカーの手配の準備だったり、当日の進行役だったり、Scalaのスキルもカンファレンス運営のスキルも不要なことをやってみました。意外とそういう作業は多く、カンファレンス運営の手練たちがそっちに集中できるように、雑務的なものを引き受けることでスタッフとして貢献できているのかな、と思いました。(パーカーの件は最後にグダって、結局主催者の方にお願いすることとなってしまいましたが・・・)

f:id:louvre24:20181117231921j:plain

あと、当日は単純に人手が必要。受付係だったり、進行係だったり、ビデオ係だったり。写真を見てみたら、ここに写っているだけでも20人以上いますね。

f:id:louvre24:20181117233621j:plain

何が言いたかったの?

上述のとおり、Scalaのこともカンファレンス運営のこともわからなくても、スタッフとして貢献できることは色々とあると思います。(もちろん、手練の方々がスタッフチームを引っ張っていってくれるからこそ、ですが)

Scala関西サミットに限らず、スタッフとしての参加に尻込みしている人がいるなら、是非1回挑戦してもらいたいです。できることはきっといっぱいあるはず!

 

抱負

Scalaは知れば知るほど旨味の出てくる言語だと思っています。Scala関西サミット2018は終わったばかりですが、早くも2019のセッション内容が楽しみです!(まだ2018年のスライドとか目を通せてないけど)

f:id:louvre24:20181117235306j:plain

その他

Scalaとは2015年からの付き合いなのでもう丸3年の付き合いになるのですが、一向に仕事で使える気配は無さそうです。会社の営業さんに話を聞いたりもしますが、関西のSIで「Scala」というキーワードは皆無だそうです・・・(←ホントなのかなぁ?)

やっぱりせっかく勉強しているんだから実践でも使ってみたいし、社内転職なり社外転職なりしてScala使う機会を作っていきたいです。もう2018年も終わるので、2019年の目標です。

 

 

【Ubuntu】aptでインストールした内容の復元

$ sudo dpkg --get-selections > ~/package.selections

でパッケージ一覧をバックアップしておく。

別でバックアップしておいた/etc/apt/sources.listを戻した後に

$ sudo dpkg --set-selections ~/package.selections && apt-get dselect-upgrade

としてパッケージをインストールする。

Conkyの設定

最近、メインPCをWindowsからUbuntuに変えてみた。

色々おもしろいアプリがあるけれど、その中でもConkyがスゴい!!

設定を失ったら帰ってこれなさそうなので、設定をメモ。

 

このブログを参考にさせていただきました。

TEXT内に記述されるConky変数一覧 2(CPU・メモリー・HDD・ファイルシステム関連) | PCとサイト制作の小技備忘録

 

以下、作成した.conkyrcです。

conky.config = {
    background = true,
    border_width = 1,
    cpu_avg_samples = 2,
	  default_color = 'white',
    default_outline_color = 'white',
    default_shade_color = 'white',
    draw_borders = false,
    draw_graph_borders = true,
    draw_outline = false,
    draw_shades = false,
    minimum_height = 5,
	  minimum_width = 200,
    net_avg_samples = 2,
    no_buffers = true,
    out_to_console = false,
    out_to_stderr = false,
    extra_newline = false,
    own_window = true,
    own_window_class = 'Conky',
    own_window_type = 'override',
    stippled_borders = 0,
    update_interval = 2.0,
    uppercase = false,
    use_spacer = 'none',
    show_graph_scale = false,
    show_graph_range = false,
    double_buffer = true,
    own_window_transparent = true,
    own_window_argb_visual = true,
    alignment = 'top_right',
    gap_x = 10,
    gap_y = 20,
    override_utf8_locale = true,
    use_xft = true,
    font = 'TakaoGothic:style=Regular:size=12'
}

conky.text = 

${color grey}Uptime:$color $uptime
$hr
CPU1 ${alignr}${freq 1} MHz
${cpugraph cpu1 33f5f5 f0ff33}
CPU2 ${alignr}${freq 2} MHz
${cpugraph cpu2 33f5f5 f0ff33}
CPU3 ${alignr}${freq 3} MHz
${cpugraph cpu3 33f5f5 f0ff33}
CPU4 ${alignr}${freq 4} MHz
${cpugraph cpu4 33f5f5 f0ff33}
RAM ${alignr}$mem / $memmax ($memperc%)
${membar 7 33f5f5 f0ff33}
${memgraph 33f5f5 f0ff33}
Swap ${alignr}$swap / $swapmax ($swapperc%)
${swapbar 7 33f5f5 f0ff33}
$hr

Highest CPU $alignr CPU% MEM%
 ${top name 1}$alignr${top cpu 1} ${top mem 1}
 ${top name 2}$alignr${top cpu 2} ${top mem 2}
 ${top name 3}$alignr${top cpu 3} ${top mem 3}
 ${top name 4}$alignr${top cpu 4} ${top mem 4}
 ${top name 5}$alignr${top cpu 5} ${top mem 5}

Highest MEM $alignr CPU% MEM%
 ${top_mem name 1}$alignr${top_mem cpu 1} ${top_mem mem 1}
 ${top_mem name 2}$alignr${top_mem cpu 2} ${top_mem mem 2}
 ${top_mem name 3}$alignr${top_mem cpu 3} ${top_mem mem 3}
 ${top_mem name 4}$alignr${top_mem cpu 4} ${top_mem mem 4}
 ${top_mem name 5}$alignr${top_mem cpu 5} ${top_mem mem 5}
$hr

Disk Read $diskio_read
${diskiograph_read 33f5f5 f0ff33}
Disk Write $diskio_write
${diskiograph_write 33f5f5 f0ff33}

${color grey}Networking:
 Up:$color ${upspeed wlp3s0} ${color grey} - Down:$color ${downspeed wlp3s0}

${color grey}File systems:
 $color${fs_used /}/${fs_size /} ${fs_bar 6 /}

 

表示はこんなカンジに。

f:id:louvre24:20170320125653p:plain

【Java】Eclipseの外観設定

Eclipseの外観設定のためにしたこと

 

マーケットプレースからインストールするモノ

Chrome Theme
Moonrise

 

その他設定

1.ウィンドウ > 設定 > 一般 > 外観でMoonriseを選択

2.ウィンドウ > 設定 > 一般 > 外観 > 色テーマでRainbow DropsXMLをインポート

3.ウィンドウ > 設定 > 一般 > 外観 > 色とフォント
   コンテンツアシスト前景色:221 221 221
   コンテンツアシスト背景色:  51   51   51

 4.ウィンドウ > 設定 > 実行とデバッグ > コンソール
    標準出力のテキストの色: 221 221 221
            背景色:   51   51   51

【Scala】IntelliJでデバッグ実行する

IntelliJデバッグ

 

走り書き。後で整理できたらする。

 

まずはIntelliJの設定


 

下の画像で「play debug」と表示されている小窓で、「Edit Configurations」を選択する。

f:id:louvre24:20160813185531p:plain

 

メニューを開いたら、Remoteの設定を行う。

ポイントはPortに9999を設定することくらい。

f:id:louvre24:20160813185707p:plain

  

次にactivator


  

activatorを以下のように実行する

     activator -jvm-debug 9999 run

  

 

最後にデバッグ実行


  以下の画像の虫さんのアイコンをクリックするとブレイクポイントで処理を止められるようになる。

f:id:louvre24:20160813185531p:plain

【Apache Spark】Windows環境へのApache Spark導入

Windows + Apache Spark

 

Sparkが最近気になる。

なので、少しずつお勉強しようかと。

 

SparkはUnixベースの環境で使うのが一般的(?)らしいけど、メインで使っているのはWindowsなので、Windows環境でお勉強できたらな、と。

ゆくゆくLinuxに加えてクラスタ環境を構築できればいいな。。。

 

環境構築は以下のページをゴリゴリに参考にしています。

(参考というか、猿マネ・・・)

qiita.com 

 

1.Apache Sparkのダウンロード

Sparkは以下のサイトからダウンロードする。

http://spark.apache.org/downloads.html

今回は以下を選択しました。

・Spark release:1.5.2

・packeage type:Source Code [can build several Hadoop versions]

 

ダウンロードしたtgzファイルを解凍すると、

 spark-1.5.2

というフォルダができました。

こいつを任意の場所に。

 

2.Sparkをビルドする

まずは、spark-1.5.2\sbtフォルダ内に、

 sbt-launch.jar

を配置する。

自分の場合は以前にsbtを入れた際にsbtのフォルダに入っていたので、そいつをコピーしてきて配置。

 

次に、spark-1.5.2\sbtフォルダ内に、

 sbt.bat

を作成する。

中身は以下のとおり。

@echo off
set SPARK_HOME=%~dp0..
echo %SPARK_HOME%
java -Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M -jar %SPARK_HOME%\sbt\sbt-launch.jar %*

 

 で、spark-1.5.2フォルダに移動してから

 sbt\sbt.bat assembly

を実行してしばらく待つこと1.5時間・・・(長いな!)

f:id:louvre24:20160107012819p:plain

 

3.動作確認

bin\spark-shellを実行。

f:id:louvre24:20160107012927p:plain

 

 

 

【IntelliJ】GitHubからプロジェクトを取得する

IntelliJGitHubからプロジェクトを取得してエラーが取れるまでの流れをQiitaに書きました。

メモメモ

 

qiita.com