Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.

2025.02.03

Logging

おはようございます.快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.いやーこれ事故したときに悲惨な感じになりそうだなと思ってしまったのは自分がマイナス思考だからなのかな?

乗ってみたいけど…なんかヤダ.運行するときはカーテンとか取り付けられているのかなぁ.

全然別話ですみませんが今月の18日にドン・キホーテさんが高知県で開業されるとかで一部の人が騒いでいるようです.オープンしたらTVのニュースになるだろうな.これでドン・キホーテさんは全国をコンプリートした形になるそうです.余程、高知県には需要がないと思っていたんだろうな、収益的には赤字経営になりそうな気がします.

恐らく高知県側から打診があってのオープンだと思います.

ドン・キホーテオープンして時間が経ったら見に行ってみます.いまの段階では全く魅力を感じない…ドン・キホーテ、ヨドバシとかが来たほうが自分的には嬉しかったです.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

オープン, ガーデン, ドン・キホーテ, ドン・キホーテさん, ニュース, パス, バス会社, マイナス思考, ヤダ運行, ヨドバシ, 一部, 別話, , 打診, 段階, 赤字経営, 需要, 高知県, 高知県側, 魅力,

iphone14にするかAndroidスマホにするのか。

2022.07.17

Logging

お早うございます。iphone14にするかAndroidスマホにするのか凄く悩んでいます。この問題はios16がリリースされた後にも悩むかもしれません。この頃のiPhoneは魅力をあまり感じないですね。ただ、Androidに移行するのが面倒くさいというだけで、iPhoneを使用している感じが強いのです。

一番はコロナ禍になりマスクをかける機会が日本では未だに多く、顔認証の時にいちいちマスクを外してロック解除をしないといけないのが手間です。これをios16では解消してくれるらしいのですが、自分のiPhoneは対象外らしいのでソレだったら、もうこの際にAndroidのスマホに乗り換えても良いのかなとか考えています。

移行時にネックだった二段階認証も二段階認証のエクスポート機能を使えばそれほど難しい事もないらしいので、何とかなりそうな気がします。後は切替のタイミングとどの端末を購入するかなどで検討中です。高知県では5Gがまだまだ浸透していないのですが、5G機能は必要かなって思っています、後はお財布携帯機能、これだけは外せないな。

こんな機能が付いているスマホが4万円代で購入出来るみたいなので、何だかiPhoneの割高感の強いスマホに買い替えるより、とてもリーズナブルな感じはします。

そういう良い所はあると思うのですが、iPhoneを手放すのも惜しい気もする。それが今の答えなので今回のiPhone14は見送りも視野に考えていてiPhone15もそれ程、革新的なスマホではないのらAndroidに買い替えるつもりでいます。とか言いながらiPhone14にしているかもしれない…。

追伸:現段階では親に今の機種を譲渡するのはちょっと保留中です。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

14, 16, 5, Android, iOS, iPhone, エクスポート, これ, コロナ, スマホ, ソレ, タイミング, ネック, マスク, リリース, ロック, , , , 使用, 問題, 対象, , 感じ, 手間, 日本, , 未だ, 検討, 機会, 機能, 段階, , , 移行, 端末, 自分, 解消, 解除, 認証, 購入, , , 顔認証, 高知県, 魅力,

お金の授業総まとめとS&P500についてどうなの?

2021.08.02

Logging

お金の授業総まとめとS&P500についてどうなの? お金の授業総まとめ?で中田敦彦さんはS&P500を押しているけど、それはどうなのかという事をお金の大学の著者は反論していたりしていて、やはり最後は自分で調べないといけないなという気持ちで、お腹いっぱいになりました。

【お金の授業総まとめ②】中田の結論は米国株「○○○」を一括購入

ただ、株も買ったりすることは駄目だとは思わないですが・・・(*´ω`*)、むしろ買ったほうが良いと思います。特にこれからの日本そんなに先が明るくはないと思っている。特に大震災がどこまで最小限に被害を食い止めることが出来るかで日本の未来はかなり決まると思っています。そう考えている人は結構いるじゃないかな?、そういう事もあって自分は海外の株式は資産として買っとくと良いかなと思っています。日本株も魅力だけど海外の株式はもっと面白さがあります。

第38回 【危険】S&P500に投資すれば絶対に儲かると信じている人に伝えたい3つのこと【初心者向け】【社会・トレンド】

トイウコトデ、投資や投機は自己責任ですね(*´ω`*)、元本割れするとガックシ来ますがそれから、また復活すると面白いです。長期投資の株は面白いですね優待券とかもあるからね。海外の株式は間接的なのしかやっていないけど、分配金はあるみたいだね。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

500, amp, お金, ガックシ, かなり, こと, これ, それ, トイウコトデ, どこ, 中田敦彦, , , 元本, , 反論, 大学, 大震災, 投機, 投資, 授業, 日本, 日本株, 最小限, 最後, 未来, , 株式, 気持ち, 海外, 総まとめ, 腹いっぱい, 自分, 自己, 著者, 被害, 責任, 資産, 駄目, 魅力,

地方創生ってどうなってるの?

2016.10.13

Logging


地方創生ってどうなってるの?
大阪から高知へ帰るときに「高知県って何があるですかね」みたいな
話を県外人が話していて、「ふと」地方創生のことを
思い出しました。地方創生って今どうなっているのだろうか?
高知県でも地方創生のために
頑張って活動している人がいっぱいいるだと
思いますが、まだまだ県外の人から見ると
高知県の魅力がわからない人が多いだろうと感じます。
高知県生まれ高知育ちの自分にとって
ここが良いっていう高知県のアピールできる所といえば
四万十川とよさこい、そしてカツオと
たぶん、高知県、観光でググるとでてくるような
事しか頭に出てこなかった。
たぶん、そこなんだと思うです。
わざわざ、足を運ぶわけですから
そこに魅力やステータスがないと人は来ない
じゃないかなと・・・。
いま、頑張って若者達が草の根運動しているですけど
やっぱりそれだけでは、なかなか厳しいだと思います。
自分が思うに地方創生する前に
最低限のインフラ整備を行ってほしいですね。
いま、高知県では高速道路ががんがん作られていますが
高速より電車だろ・・・と思うわけです。
確かに高知県では足といえば車ですが
観光客の足といえば電車なんだと思うわけです。
そこに力を入れないと
やはり発展はないじゃないかなと感じます。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

NHK出版新書, インフラ整備, カツオ, ステータス, よさこい, わざわざ, 四万十川, 地方創生, 最低限, 県外, 草の根, 観光客, 鉄則, 電車, 高知県, 高知県生まれ高知育ち, 高速道路, 魅力,

さくらレンタルサーバーよりXサーバーかもと最近思い始めた。

2016.02.07

Logging


 
さくらレンタルサーバーよりXサーバーかもと最近思い始めた。
なので、切り替えを行いたいと思っています。
理由は1000円で大体の機能が全て
整っているからです。
だだ、切り替えたいと思っているだけで
切り替えを行わないで今のまま、さくらレンタルサーバを
使う可能性もあります(ちなみに今は月々515円ぐらい)。
一番のXサーバーの魅力は
PHP7が使用できるということです。
そこが最大の魅力です。
PHP5から言えば、2倍の処理能力を
持つPHP7をお手軽に導入できるというのは
魅力的ですね。
だだ、それだけの事なので
勿体無いから今のままさくらレンタルサーバを
使うという選択枠はあります。
変えたいけど、それほどサーバにお金を
使いたくないなぁという気持ちもあります。
アクセス数が一万件とかあるサイトでも
無いので、今のままで十分かなとも半分ぐらい
思っています(゚Д゚)。
なので、ゆらゆら考えが揺らいでます。
半年から一年ぐらい様子見しようかな・・・。
そしたら、さくらサーバでもPHP7導入してそうです。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

PHP5, PHP7, Xサーバー, アクセス数, さくらサーバ, さくらレンタルサーバ, それだけ, ドメイン取得・Webサイト構築, 使い方, 処理能力, 切り替え, 半年, 基礎知識, 月々515円, 選び方, 選択枠, 魅力,

本「シンプルに考える」を読んで。著:森川亮。元LINE社長。

2015.11.21

Logging


シンプルに考えるを読んでみて
これから起業するとか、そういう人だけの本ではないです。
確かに起業するひとが読むとためにはなると思います。
そうではない人が読んでも森川亮氏の考え方は
良いように思えます。
起業しない人が読んで
どういう所がためになるのか、
これから、世の中でどう動きをどう捉え
今後、どのような考えをすれば
良いのかということの参考になる本です。
森川氏という人は、世の中の流れを察知して
対応するのに長けた人だとも言えます。
森川氏と同じことをして同じ結果は得られないと
思いますが、読んでいると何だかグイグイ、森川氏という
人物に魅力を感じ、ノウハウを吸収したいという思いになります。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

jp, いまいち, ノウハウ, ひと, 世の中, 人物, 元LINE社長, 動き, 参考, 思い, , , 森川亮, 流れ, 結果, 考え方, , 魅力,