2009年8月30日 星期日

[電影] 急速醜聞 / 超速醜聞 / Speeding Scandal








今天在第四台看到,第二次看到了。車太鉉主演的電影,記得2002年的「我的野蠻女友/My Sassy Girl」嗎,當時也風迷一陣子。據說這部電影在韓國票房不錯喔!而女主角在韓劇「王與我」飾演少年尹素華/尹素花,當時也吸引不少人了。這部電影還滿搞笑的囉!
















更多敘述請參考:







以上圖片來源:PhotoWant.com http://photowant.com


三週的體驗營

昨天還忙著寫程式,盡可能把包袱弄小一點,總覺得把程式丟給別人還挺不負責的,這樣的缺憾也是人生的一途嗎?隨著 MSN 同學的敲打,發現他對軍旅的不安,或許,這才是正常的現象。


記得剛上大學時,我帶著高中同學送我的"溫一壺月光下酒"和高中成年禮送的檯燈,就這樣在新的環境裡渡過一夜。我記得那時還有傳簡訊給幾位學長姐,
一位是高中 BBS
站的站長,那時他唸完碩班正要畢業,另一位則是繼續唸博班的學長,最後則是在高中碰到的外文學姐,只是一切止於簡訊,可能是自己行動力不佳,不像大學室友
他們,一進大學就往其他寢找高中同學,就這樣人情散。


沒想到一下就要進入新的旅程,並沒什麼好擔心,只是經過這短短三個禮拜後,便正式轉職成社會人士,想啊想,大概有點眷戀現在的環境。


未來啊,似乎資源將越來越豐富,得趕快找好目標,追求與達成。


2009年8月23日 星期日

[PHP] GD with JPEG / imagejpeg @ FreeBSD

前幾天使用 Tarball 方式安裝完 PHP ,沒想到 GD 裡頭一些東西不正常,舉例來說:imagejpeg not found!


仔細看了一下,一直搞不懂為什麼編 PHP 時還需要給定 --with-jpeg-dir 、 --with-png-dir 等位置,於是,我順一遍假想的流程,終於搞定了。



  1. 在 /usr/ports/graphics/jpeg 發現 libjpeg 的蹤影,尾隨 Makefile 找到一些可以下載 source code 的地方

    • http://www.ijg.org/files/

    • ftp://ftp.uu.net/graphics/jpeg/

    • 下載 jpegsrc.v6b.tar.gz 並解壓縮與編譯

      • # tar -xvf jpegsrc.v6b.tar.gz

      • # cd jpeg-6b/ ; make



    • 在 jpeg-6b/.lib 中得到 libjpeg.a 檔



  2. 重編 PHP 並且指定 --with-jpeg-dir 位置,即 libjpeg.a 位置(最好統一拉出來建目錄管理)

  3. 搞定


因此,若有其他相關的,如 png 等,可以順勢到 /usr/ports/graphics 逛逛囉!此為 Tarbll 安裝方式所碰到的問題,使用 /usr/ports 可在 /usr/ports/lang/php5-extensions/ 安裝 GD 得到處理。


[PHP] gdb php.core

沒有想過,原來自己寫的 PHP 也會產生這個檔案。這個原因是出自於我架的 Apache HTTPD 運行 PHP 所產生的,透過 HTTPD 類似執行 shell_exec( "/path/bin/php /tmp/test.php > /dev/null & " );


如果產生 php.core 檔案,可以到官網參考解決方式:



我自己的情況是透過以下方式看訊息的:



  • # gdb /path/bin/php php.core

    • (gdb) bt ;

    • 會蹦出一堆訊息讓你參考

      • #0  0x88b9194d in calloc () from /lib/libc.so.7
        #1  0x88b91b7e in free () from /lib/libc.so.7
        #2  0x082cbf9a in destroy_zend_class (pce=0x88e3e76c) at /path/php-5.2.10/Zend/zend_opcode.c:202
        #3  0x082de386 in zend_hash_destroy (ht=0x10) at /path/php-5.2.10/Zend/zend_hash.c:526
        #4  0x082d48b8 in zend_shutdown () at /path/php-5.2.10/Zend/zend.c:736
        #5  0x08293f3f in php_module_shutdown () at /path/php-5.2.10/main/main.c:1908
        #6  0x083500a0 in main (argc=4, argv=0xbfbfe71c) at /path/php-5.2.10/sapi/cli/php_cli.c:1357





  • # gdb /path/bin/php

    • (gdb) run /tmp/test.php arg1 arg2 arg3;

    • 沒多久看到訊息

      • ...

      • Fatal error: Call to undefined function imagecreatefromstring() in /tmp/test.php on line xxx

      • ...

      • Program received signal SIGSEGV, Segmentation fault

      • 0x88b9194d in calloc () from /lib/libc.so.7






因此,至少知道點方向了 :-) 但這主因並不是缺少 library 啦,經多次測試後,發現用 5.2.10 使用 imap_search 後產生的問題,改用 5.2.9 就不會出現 Segmentation fault 啦。


# [ @ php-5.2.10 ] ./configure --with-apxs2=/path/httpd/bin/apxs --prefix=/path/php --without-pear --with-openssl --with-imap --with-imap-ssl


使用 imap_open -> imap_search -> imap_close 則會出現 Segmentation fault ,但改用 php-5.2.9 就不會發生。


另外一聊,在開發移植的環境上,最好先弄個 lib_test.php 的檔案,用來測試必要的 function 是否存在:



  • <?php
    $test_func = array(
            'imagecreatefromstring' ,
            'imagesx' ,
            'imagesy' ,
            'imagecopyresized' ,
            'imagejpeg' ,
            'imagedestroy'
    );
    foreach( $test_func as $v )
            if( !function_exists( $v ) )
                    echo "'$v' not found!\n";
    ?>

  • # /path/bin/php lib_test.php


2009年8月21日 星期五

[Unix] 使用 Tarball 安裝 Apache + PHP @ FreeBSD

由於 lab 電腦得還回去,使得程式的開發無法在用 VMWare 了,因此,又回歸到在工作站架設自己需要的環境啦!順便要把自己降級,用用 Tarball 吧!說真的,這也是我覺得工作站好用之處。寫個筆記給自己。


安裝 Apache HTTPD



  1. 下載 HTTPD - http://httpd.apache.org/


  2. 解壓縮 # tar -xvf httpd-2.2.13.tar.gz ,之後就會在所在目錄蹦出 httpd-2.2.13/ 目錄

  3. 設定編譯等環境

    • # ./configure --prefix=/home/user/tmp_for_httpd --enable-so --enable-ssl

    • 如加入 https 的需求等



  4. 編譯和安裝

    • # make && make install



  5. 設定 httpd.conf

    • User / Group

    • Listen Port_Number

    • Include conf/extra/httpd-ssl.conf

    • 家目錄 DocumentRoot 等



  6. 產生憑證

    • # cd /home/user/tmp_for_httpd/conf

    • # openssl genrsa -des3 -out server.key 4096
      # openssl req -new -key server.key -out server.csr
      # openssl x509 -req -days 3650 -in server.csr -signkey server.key -out server.crt
      # openssl rsa -in server.key -out server.key

    • 記得在 chmod 600 server.key 吧

    • 另外,要跑的 https port 也要記得在 conf/extra/httpd-ssl.conf 修改

      • <VirtualHost _default_:HTTPS_Port>

      • ServerName www.example.com:HTTPS_Port

      • 家目錄 DocumentRoot 等





  7. 運行與測試

    • # /home/user/tmp_for_httpd/bin/apachectl start

    • # telnet localhost Port_Number

      • 連得上後,請打 GET / 即可,算是簡單的測試



    • 有任何問題,請留意 logs/error_log 訊息




安裝 PHP



  1. 下載 PHP - http://www.php.net/


  2. 解壓縮 # tar -xvf php-5.2.9.tar.bz2 ,之後就會在所在目錄蹦出 php-5.2.9/ 目錄

  3. 設定編譯等環境

    • # ./configure --with-apxs2=/home/user/tmp_for_httpd/bin/apxs --prefix=/home/user/tmp_for_php --without-pear --with-openssl --enable-mbstring --with-curl --with-imap --with-mcrypt --with-imap-ssl --with-gd

    • 此例為啟用 Curl 、OpenSSL、IMAP、mbstring、Mcrypt、GD 等函式庫,詳請請試著到 PHP 官網查尋,上頭都會敘述函式庫在編譯時要下什麼關鍵字。



  4. 編譯和安裝

    • # make && make install



  5. 修改 httpd.conf

    • AddType application/x-httpd-php .php

    • <IfModule dir_module>
          DirectoryIndex index.php index.html
      </IfModule>




以上就完成兩者的結合了,記得安裝完 PHP 或設定 PHP 完後,都要重新啟動 HTTPD 啦


比賽的開始與結束









終於走完 2009 趨勢雲端程式比賽,感觸良多,原先我只是想要在僅剩的學生生涯裡,透過比賽摸索自己的實作能力。一開始規劃參加Android跟趨勢比賽,但基於時間關係僅參加趨勢比賽,沒想到很幸運地通過趨勢的初賽(那時可還是口試前2個禮拜),並在複賽中經歷著 48 小時的努力,十分感謝隊友的付出,一起完成了這個足跡。


回顧起來,雖然對 Hadoop 不懂,但熱心的趨勢科技,主動開了幾堂課,因此稍稍地了解,只是面對著新穎的開發環境,常常讓自己困惑,像是演算法在此架構對不對、記憶體管控會不會爆掉等等的遲疑,多少影響開發信心與效率,這點又再一次驗證「思而不學則殆」的古語!凡事由基石建起,真的要花點時間了解 Hadoop 環境跟架構。


初賽期一開始花三天熟悉並使用 Java 語言和 Hadoop 環境,沒想到第四天又走使用 C/C++ streaming 的方式,最後花了一天做 Web 介面的流程掌控和報告。程式部分,主要提出一種資料儲存的設計,提出一次 Map & Reduce 做 Counting ,再一次 Map & Reduce 做 Sorting,以此完成 Term Counting & Sorting 服務,並保有一點點資料索引的特性。這就是初賽過程,除了報告上的應用呈述外,可能有實作 Web 介面而沾到點分數。儘管我們幾乎是在初賽那幾天才初探 Hadoop ,但基於老師在日常生活中教導的資料處理方式,讓我們很快地適應 Map & Reduce 架構,這應該算是另類的優勢吧。


複賽,還滿刺激的,很多題目甚至專有名詞我都搞不懂,只好先處理基本題目,再套上初賽的 Web 介面、流程,除此之外,初賽的程式完全沒用到了,比較慶幸的,賽前三天有稍微討論一下可能出題的方向,恰好想過如何處理差集的實作,再一次被幸運的女神眷顧啦。分工上比初賽更好,主要先解決幾題基本題跟網頁介面,其他重要議題的構想、實作、演算法驗證,則依序由隊友大力扛下啊,真是太讚了,以至於最後 8 小時工作效率大增,彼此的整合也更加順利。


連續 48 小時比賽,真的滿累的,比賽期間超過 24 小時沒睡。經過一天沉澱才越來越能接受手中的獎牌,而團體的努力是有加乘的效應的, 1 + 1 > 2 啊。比較深刻的回憶是比賽期間有段撞牆期,看不懂題目,只是不斷地實作出想要的工具或介面,幸運的是在倒數 8 小時內,像似打通任督二脈般地,一不會兒就用之前開發的工具整合出雛型。只是距離別隊還是有段小差距,大概就像別人的成果是 Product 而我們實作的就只能稱作 Project 吧!


anyway, 很高興有這份機會參加活動,希望自己能保有這份活力地面對未來的工作啦!


相關連結:



2009年8月15日 星期六

電影 變身西裝/帥哥西裝 - 主題曲 My Revolution









這首是電影變身西裝的主題曲,看完這齣戲讓我回想起韓劇大長今更深一層的意境,在電影中所呈現的:「變成最酷最帥的人,卻也是最爛的人」,讓我回想起大長今裡,那些追求著高位權力者。真巧,這部搭著大長今的渲染,中和起來真是不錯!


記得幾個月前,有稍微使用這個電影跟家人分享,關於外人第一眼還是看人外表的事情,不過,這則故事反而重心不在那邊,而是如何保有最初的幸福並好好珍惜。


2009年8月13日 星期四

未來~

前陣子因比賽關係,熬夜沒睡,倒是跟同學一起吃了早餐,那次大概是唯一一次跟大家吃早餐吧。記得第十九集的幽遊白書,似乎經歷許多大風大浪地,隨口地說出「未來」兩字…,現在的感覺,類似…儘管沒做出什麼大事業。









作詞:鍾成虎
作曲:盧廣仲

整個世界 停止 不轉動 很寂寞
走在海邊 數著 螢火蟲 好困惑
想要的生活怎麼有一百種
不想掉進這深深 漩渦

整個海洋 擺動 柔軟地 舉起我
孤獨給我 自由 猶豫得 好感動
想要的生活怎麼有一百種
該怎麼走 誰來告訴我 wow

每當我背對星空
抱著地球
發現自己其實脆弱 不敢說
當我背對星空
不斷摸索
愛情漸漸萎縮 我猜不透
無邊的宇宙 哪裡有我要的生活

整個海洋 擺動 柔軟地 舉起我
孤獨給我 自由 猶豫得 好感動
想要的生活怎麼有一百種
該怎麼走 誰來告訴我 wow

每當我背對星空
抱著地球
發現自己其實脆弱 不敢說
當我背對星空
不斷摸索
愛情漸漸萎縮 我猜不透
無邊的宇宙 哪裡有我(想)要的生活

每當我背對星空
抱著地球
發現自己其實脆弱 不敢說
當我背對星空
不斷摸索
愛情漸漸萎縮 我猜不透
無邊的宇宙 哪裡有我要的生活
原來一百種
要在很久很久以後才會懂


說真的,想要的生活沒規劃,沒仔細想過,然而,前陣子看了韓劇大長今,卻又蹦出許多感觸,像似「明知山有虎,偏向虎山行。」,好像很難擺脫,但到底什麼生活是我想要的呢?或許就像這首 100 種生活 歌詞,要等到很久以後,才會明瞭吧。


上次北上時跟學長閒聊買屋等事,台北 40 坪差不多要 1200 萬。假設貸款九成,那自備款 120 萬,20 年以年率 3 % 來看,一個月利息該還 ( 1080 * 3% / 12 ) = 2.7 萬,本金償還 ( 1080 / 20 / 12 ) = 4.5 萬,一個月總共要付出 7.2 萬耶,真不少。


今天謝師宴,似乎是個結尾,卻又看不到任何終點?這就是人生吧,永遠只有持續走下去這條路。


2009年8月11日 星期二

Hadoop 0.20 安裝設定筆記

@2010/02/07,此篇是記錄從原先 0.18 版提升至 0.20 版的過程,若須由重頭安裝的,請參考以下兩篇:



下載位置:



從 0.18 版升到 0.20 版,順一次最初的 VMWare Image 檔,其為 0.18 版、CentOS,以下用 root 帳號操作:



  1. 更新軟體 (安裝軟體用 root 身份)

    • # yum -y install screen





    • 安裝 screen

      • # yum -y install screen





    • 安裝 lftp

      • # yum -y install lftp





    • 安裝 apache web server 和 php


      • # yum -y install httpd php



    • 設定 HTTPD

      • # vim /etc/httpd/conf/httpd.conf



    • 啟動 HTTPD

      • # /etc/init.d/httpd start





  2. 設定或建立 .screenrc (可用 hadoop身份)

    • # vim ~/.screenrc 加入一行即可

      • caption always "%{bw}%M/%d %c %{wb} %-w%{c}%n %t%{w}%+w%{k} %=%{G}[%H] %l%"






Hadoop 設定,以下用 hadoop 帳號操作:



  1. 抓 hadoop 0.20 至 hadoop 根目錄 (/home/hadoop, 即 hadoop 帳號登入的預設位置)

    • # wget http://apache.ntu.edu.tw/hadoop/core/hadoop-0.20.0/hadoop-0.20.0.tar.gz



  2. 解壓縮即安裝

    • # tar -xvf hadoop-0.20.0.tar.gz



  3. 切換至 hadoop-0.20.0 (之後的目錄都是指 hadoop-0.20.0)

    • # cd /home/hadoop/hadoop-0.20.0/



  4. 設定 hadoop-env.sh

    • # vim /home/hadoop/hadoop-0.20.0/conf/hadoop-env.sh 加入一行

      • export JAVA_HOME=/usr/lib/jre1.6.0_13






以上即完成單機版 hadoop 的環境,接著可以啟動跟查看目前所在目錄的資料夾與檔案



  1. # ./bin/start-all.sh

  2. # ./bin/hadoop dfs -ls


以下是設定 hadoop dfs 環境,使用 hadoop 身份



  1. 複製 hadoop 0.18 設定檔

    • # cp /home/hadoop/start-hadoop /home/hadoop/hadoop-0.20.0/

    • # cp /home/hadoop/stop-hadoop /home/hadoop/hadoop-0.20.0/

    • # cp /home/hadoop/conf/hadoop-site.tmp /home/hadoop/hadoop-0.20.0/conf

    • 並編輯 /home/hadoop/hadoop-0.20.0/start-hadoop 和 /home/hadoop/hadoop-0.20.0/stop-hadoop

      • 更新 Hadoophome="/home/hadoop" 為 Hadoophome="/home/hadoop/hadoop-0.20.0"





  2. 產生設定檔

    • 純粹用來產生 conf/hadoop-site.xml 資料, 但新版已不用此設定檔

      • # /home/hadoop/hadoop-0.20.0/start-hadoop

      • # /home/hadoop/hadoop-0.20.0/stop-hadoop



    • # cp conf/hadoop-site.xml conf/core-site.xml

    • # vim conf/core-site.xml


      •   <property>
            <name>fs.default.name</name>
            <value>hdfs://IP:9000</value>
          </property>
         <property>
            <name>mapred.job.tracker</name>
            <value>localhost:9002</value>
          </property>
         <property>
            <name>dfs.replication</name>
            <value>1</value>
          </property>

          <property>
            <name>hadoop.tmp.dir</name>
            <value>/tmp/hadoop-${user.name}</value>
            <description>A base for other temporary directories.</description>
          </property>
          <property>
            <name>dfs.name.dir</name>
            <value>${hadoop.tmp.dir}/dfs/name</value>
          </property>
          <property>
            <name>dfs.data.dir</name>
            <value>${hadoop.tmp.dir}/dfs/data</value>
          </property>

          <property>
            <name>dfs.http.address</name>
            <value>0.0.0.0:50070</value>
          </property>
          <property>
            <name>mapred.job.tracker.http.address</name>
            <value>0.0.0.0:50030</value>
          </property>

          <property>
            <name>dfs.datanode.address</name>
            <value>0.0.0.0:50010</value>
          </property>
          <property>
            <name>dfs.datanode.ipc.address</name>
            <value>0.0.0.0:50020</value>
          </property>
          <property>
            <name>dfs.datanode.http.address</name>
            <value>0.0.0.0:50075</value>
          </property>
          <property>
            <name>dfs.datanode.https.address</name>
            <value>0.0.0.0:50475</value>
          </property>





  3. 格式化 namenode (原先存在的資料將被清光)

    • # ./bin/hadoop namenode -format



  4. 啟動 hadoop 前修改 start-hadoop 檔

    • # vim /home/hadoop/hadoop-0.20.0/start-hadoop

      • 把第九行用 # 註解掉  ( #sed "s/\$hostip/$host_ip/g........ ) 不弄的話也沒關係, 只是會一直蹦訊息而已





  5. 接著就像 0.18 一樣正常操作了

    • [hadoop@hadoop hadoop-0.20.0]$ ./start-hadoop
      Starting Hadoop ...
      Job Admin: http://IP:50030/
      HDFS: http://IP:50070/
      [hadoop@hadoop hadoop-0.20.0]$ ./bin/hadoop dfs -ls
      ls: Cannot access .: No such file or directory.
      [hadoop@hadoop hadoop-0.20.0]$ ./bin/hadoop dfs -mkdir input
      [hadoop@hadoop hadoop-0.20.0]$ ./bin/hadoop dfs -ls
      Found 1 items
      drwxr-xr-x   - hadoop supergroup          0 2009-08-12 15:00
      /user/hadoop/input




錯誤訊息及修正:



  • list 可以有東西出來,但只要新增資料進去就會出錯,蹦一堆訊息,經過查詢發現是 datanode 沒有跑起來

    • # ./bin/hadoop dfs -ls

      • OK



    • # ./bin/hadoop dfs -put test .

      • ERROR





    • # ./bin/hadoop dfsadmin -report

      • 顯示 Datanodes available: 0 (0 total, 0 dead)



    • 解決方式, 是將原本 0.18 建立的 datanode 資訊砍掉重建, 即可處理,但將損失資料,最好請參考 Trouble Shooting 的解法 

      • # ./stop-hadoop

      • # rm /tmp/hadoop*

      • # ./bin/hadoop namenode -format

      • # ./start-hadoop





  • Trouble Shooting

    • If nameNode or file can not put into.

      • Better solution

        • # hadoop fsck



      • Worst solution (data will all lost)

        • # stop-all.sh

        • # rm -fr /fs/HDFS

        • # mkdir /fs/HDFS

        • # hadoop namenode -format

        • # start-all.sh







    • 如果dfs只能看到自已

      • 手動清掉所有node的hadoop tmp目錄(default: /tmp/hadoop-root)再重啟 dfs






2009年8月9日 星期日

UCINET 簡易 教學 使用 筆記

前陣子自己曾寫一篇關於社會網路分析的文章,發現還不少人用 UCINET 關鍵字找到,然而那篇文章只是純粹地發牢騷,並沒有記下任何的使用資訊。今天有收到別人的留言,我想,就順道回憶一下這套軟體的使用。


首先,要做的事就是將手頭社群網路建成 UCINET 軟體可輸入的資料格式,在此以文字檔為例:(前兩行是制式格式)


dl n = 個數 , format = 輸入格式
data:
...
...


其中,個數代表整個圖中有幾個 node 組成,輸入格式可分成 node list 和 edge list 兩種,若圖是有權重的,那只能用 edge list 方式輸入。



  • nodelist


dl n = 4, format = nodelist1
data:      
1 2 3
2 3 4
3 4
4 3


此例代表 node 1 跟 node 2 和 node 3 有連線; node 2 跟 node3 和 node 4 有連線,以此類推



  • edgelist


dl n = 4, format = edgelist1

data:      

1 2 10

2 3 15

3 4 1

4 3 5


此例代表 node 1 連到 node 2 ,權重為 10 ;node 2 連到 node 3 ,權重為 15 ;node 3 連到 node 4 ,權重為 1 ,以此類推


以 edge list 或 node list 的輸入格式,都是有向圖的輸入,若要弄成無向圖時,則需留意輸入,例如輸入 node 1 連到 node 2 後,要記得再建立 node 2 連到 node 1 的資訊。而使用上述的格式,是因為社群網路資訊可能很大,因此會需要用程式產生輸入資料,若資料不大,可以使用 UCINET 提供的輸入方式。


UCINET 6 -> [Data] -> [Import from text data] -> [dl]


完成圖的輸入後,緊接著就是分析的部分,此部分必須搭配演算法的意義來使用,例如最簡單的就是輸出 in-degree 和 out-degree 資訊,透過基本的資訊,可以得知哪些點可能是重要的,例如某點的 out-degree 和 in-degree 都多,但表該點可能位於圖的中心等。然而,分析並不是這般簡單的,因此才會有源源不絕的演算法蹦出來,以 Betweenness 為例,簡言之,若有某點常常出現在一些最短路徑上,那該點可能是重要的,因此,可以用 UCINET 幫你計算出該圖各點的 Betweenness 數值,數值高的就是一種重要的意義。


UCINET 6 -> [Network] -> [Centrality] -> [Freeman Betweenness] -> [Node Betweenness]


以上述提到的 node list 測資丟入


sna sample


運算完的 Betweenness 資訊如下:


                  1            2
        Betweenness nBetweenness
       ------------ ------------
    3         0.500        8.333
    2         0.500        8.333
    1         0.000        0.000
    4         0.000        0.000


其中, 2 跟 3 所得的 0.5 數值是因為 1 到 4 這條路可分成 1->2->4 和 1->3->4 ,各取 1/2 的關係。


最後,並沒有什麼演算法是萬能的,對於社群網路的分析靠的是經驗,這些都是我所缺乏的。


其他資訊:



2009年8月6日 星期四

韓劇 大長今 - 女主角 李英愛


資料來源:



沒想到在學生生涯的尾曲,從學弟那邊要到這齣 VCD 版的韓劇觀看,一開始看到集數 70 集,說真的有點懶懶的,但事實證明,一看就欲罷不能。目前我還沒看完,正看到要轉型為醫女的階段,簡單的劇情可以參考這裡 大長今 (電視劇)



雖然劇情低沉期或事件偏多,但整體呈現非常鮮明,例如處在宮中,必定有權謀利益等事,有些人就這樣被犧牲,轉換到現實生活中,不也是如此嗎?雖然生活中比較少跟生命威脅相關,卻也常常蹦出磨滅讓意志的事件。儘管了解現實生活人性的自私面,卻也容易忘了適應,呼。


我覺得這齣戲帶有教育的意義,讓人在面對困境時,更要堅定意志!不禁讓我回想這幾年的生活,真的,天助自助者,儘管每個人的時運不一定都很好,但仍要試著大步的往前走,只有持續走下去,才能不錯失任何機會。



回到本戲,我覺得李英愛還滿耐看的,逛過 wiki 後才發現她今年已經 38 歲了!往前推到 2004 年,當初拍戲也已經 33 歲。韓劇似乎很多哭戲,要怎樣哭得惹人憐,還真的是需要一些技巧,劇中大部分呈現是富有活力與可愛,而悲傷之事亦堅忍流淚,突顯出人生意志啊。我記得第一次聽到李英愛,應該是韓劇火花吧,只可惜我也還沒看過,過去我比較常看日劇。



如果有時間,滿建議可以看一下這部戲,裡頭字裡行間都帶有不少人生哲學。最後,滿可惜的,我找不太到戲劇富有活力和可愛的照片,似乎悲傷的容易被照片呈現,而逗趣的事卻必須用一連串的影音才能呈現,不曉得是不是這樣,網頁上的圖片就比較少微笑了。





照片出處



上述的圖片都帶有原始來源的網頁,歡迎點選回到原出處觀看囉!