방명록

  1. 2012.08.14 15:05  수정/삭제  댓글쓰기

    비밀댓글입니다

  2. TISTORY 2010.05.13 14:59 신고  수정/삭제  댓글쓰기

    안녕하세요. TISTORY입니다.

    너무 오랜만에 방명록에 전체 인사를 드리는 것 같습니다.
    화창한 날씨가 계속 되는 5월, 잘 지내시죠?^^

    갑작스런 방문 인사에 놀라신 분들도 계실 것 같습니다.
    11일부터 제공하게된 티에디션 기능을 소개하고 이벤트도 알려드리려 글을 남겨드립니다.


    관련 공지 : http://notice.tistory.com/1511


    티에디션 기능도 이용해보고, 멋진 넷북을 받을 수 있는 기회를 놓치지 마세요~!


    감사합니다.

  3. 수은 2010.03.10 18:23 신고  수정/삭제  댓글쓰기

    ㅋㅋㅋ 안녕하세요!!
    잘 지내고 계신감요??
    눈도 많이 오고 다시 추워지고.. 에취;;
    다음으로 옮기셨구낭!! 조켔다!

    • 봉보리봉봉 2010.04.11 12:05 신고  수정/삭제

      글 올린걸 너무 늦게 확인했네... 요즘 통 정신이 없어서 들어와보질 못해서 미안~

      응... 이제 온지 2달되가네... 뭐 근무환경도 좋고 자연환경도 좋고~ 다 좋아~ 다만 외로울뿐 ㅠㅠ

  4. 유지니 2009.11.25 18:27 신고  수정/삭제  댓글쓰기

    좋은 소식이라함은, 성형수술이라도 했나? 살은 좀 빠졌나? 머 이런거?
    훗..
    암것두 없어 좋은 소식따위... ㅠㅠ

    오빠야말로... 좋은 소식을 만들어보세욤~ 후훗

    • 봉보리봉봉 2009.11.27 17:30 신고  수정/삭제

      난 뭐 혹시나 예쁜 아가가 생겼나해서 물어본거지 ㅋㅋㅋㅋ
      나도 좋은 소식 만들어볼테다.. 기다려랏 ㅋㅋ

  5. 유지니 2009.11.13 11:08 신고  수정/삭제  댓글쓰기

    오빠~
    흔하디 흔한 내 이름이지만 벌써 날 잊은 건 아니겠지?
    너무 오랫동안 이야기를 안 나눴구만...
    문득 생각나고 어떻게 지내나 궁금해서 싸이 들어갔다가 여기 왔어 ㅋ
    잘 지내고 있는거얌??
    근데 여기도 잘 관리 안해?
    notice가 아직도 2008년 새해 복 많이 받으세요 ~ ㅋㅋ

    • 봉봉 2009.11.18 15:19 신고  수정/삭제

      푸하하하
      내가 그렇지 뭐 ㅠㅠ

      정신이 없다...
      이런 저런 일들로...
      준비해야될 것들도 많고 ^^

      좋은 소식은 없어?? ㅋㅋㅋㅋ

  6. 룬룬 2009.02.17 09:57 신고  수정/삭제  댓글쓰기

    안녕하세요.

    여전히 GFS로 이어가고 있습니다. APC 파워 분배기가 들어왔습니다. fence_apc 명령이 잘 적용되고요. 오늘 임의로 하나 다운 시켰는데, 시간이 조금 지나니 클러스터에서 해당 노드를 제외시켜버리고 클러스터는 정상상태로 돌아왔습니다.

    와 정말 감격의 눈물이 나네요 ㅠ

    • 봉봉 2009.02.17 23:29 신고  수정/삭제

      부럽기 따름입니다.
      사실 전 클러스터링은 이제 손을 땠습니다. 포기했지요. 대신 우회적으로 시스템을 구성하여 사용하고 있는데, 저희같이 저예산으로는 오히려 다른 방법을 사용했던 것이 더 최적의 성능을 내고 있는 것 같습니다.

      나중에 클러스터링을 다시 구축한다면 그때 많은 조언 부탁드리겠습니다.
      정말 축하드리고, 부럽습니다 ㅠ.ㅠ

  7. 룬룬 2009.02.04 11:02 신고  수정/삭제  댓글쓰기

    예전에 GFS관련 글 보다가 문득 생각나서 글 적어봅니다.

    특정 노드 Fail시 GFS관련한 모든게 정지되는 현상이 있어 전에 글 남겨주셨는데요. 저또한 그 점이 자꾸만 마음에 걸려서 사용자에게 선뜻 서비스를 할 수 없었지요. 지금 결론을 내려보면 저널링 시스템의 특성인지 한 노드가 빠지게 되면 서비스가 정지하는 것은 정상적인 현상입니다. 모두 서버리게되죠. 그리고 클러스터 상태는 FAIL_WAIT_START인가 그렇게 넘어가게 되고요. 그 상태에서 빠졌던 노드가 복구(재시작 등)되어 다시 클러스터에 참여(service cman start)하게 되면 신기하게도 정지되었던 GFS가 이어서 작동되기 시작하더라구요.
    그 과정에서 필요한 것이 fencing 기계들입니다. 이번에 APC도입을 검토하였는데, 이것이 보니 전원공급/배분 기계들이더라구요. 게다가 텔넷이나 웹 등 네트워크로 접속해서 특정 포트의 전원을 제어할 수 있습니다. Redhat Cluster Suite에서 fenced, fence_tool등 fence관련 설정을 해놓으면 fence_apc같은 유틸리티가 알아서 APC로 접속해서 전원을 차단했다가 다시 올리는 모양입니다. fence_manual이라고 수동으로 fence가 되는 프로그램이 있긴 한데 이것은 실험용으로 만들어둔 것으로 제대로 작동하진 않는다 하네요.

    간혹 특정 노드가 에러가 났는데도 클러스터에서 빠져나오지 않는 경우가 있는데 이럴 경우는 어떻게 대처해야할지 모르겠습니다. cman에서 강제로 노드에서 제외시킬 수가 없던데요. cman_tool kill명령이 있긴 하나 잘 듣지 않았습니다.

  8. 룬룬 2009.01.08 17:51 신고  수정/삭제  댓글쓰기

    덕분에 GFS를 올리는데 성공하였습니다. 의외로 gfs2가 불안정하여 gfs2가 아닌 gfs으로 하였더니 8개 노드에서 bonnie++을 돌려도 노드가 죽지 않으며, 현재 대용량 avi파일로 테스트를 해보고 있습니다.

    하지만 fence쪽은 제가 제대로 구현을 못해 한 노드가 떨어져나가면 전체가 망가지네요.

    • 봉봉 2009.01.08 23:55 신고  수정/삭제

      우선 축하드립니다. ^^
      저 역시 스토리지 클러스터링을 구축한 뒤, 파일 시스템을 GFS2로 하고 검색엔진에서 해당 파일 시스템에 데이터 파일을 저장하도록 했었는데, node정보가 깨지는 등 여러가지 문제가 발생했던 기억이 납니다. 검색엔진에서 워낙 I/O작업을 많이 해서 더 문제가 컸었겠지만, 아무래도 ext3에서는 문제가 없었던 것들이라 불안해서 쓰지 못하겠더군요.

      fence 문제는... 도대체 어떻게 설정해야되는지 모르겠더군요. 구글링을 해도 제대로된 정보가 나오는 것 같지도 않구요.(제 영어 실력이 아주 초라해 제가 못알아먹었을 수도 있구요 ㅎㅎ)

      어쨌든 저도 아쉬운대로 storage clustering을 사용하고 있긴 한데, GFS에 웹 서버에서 사용하는 파일들만 공유해서 쓰고 있습니다.

      다시한번 구축 성공 축하드립니다.

  9. 지나 2009.01.08 16:39 신고  수정/삭제  댓글쓰기

    관심...꾹꾹..!!

  10. 수은 2008.12.26 15:48 신고  수정/삭제  댓글쓰기

    다들 바쁘시고만
    크리스마스는 잘 보냈나용??
    난 시골집 갔다 왔는데
    거긴 눈이 좀 왔지용!!!
    아궁 잠와 잠와.....
    커피한잔 마셨는데
    더 잠이 온다는....
    12월 다 지나가내용!!!
    머해요!!!!!??

    • 봉봉 2008.12.26 16:30 신고  수정/삭제

      크리스마스... 그냥 술 마시고 당구치고, 일하고 그랬지 뭐.
      크리스마스가 뭐 별거라고~

      난 졸리진 않는데... 기분이 매우 좋지 않아서, 그냥 앉아서 멍때리고 있는 중...


블로그 이미지
봉보리봉봉

공지사항

Yesterday33
Today6
Total131,869

티스토리 툴바